当绝望遇上算法:OpenAI 将在青少年表达自杀意念时报警,若无法联系家长就通知当局
在最近的访谈中,OpenAI 的创始人兼首席执行官 Sam Altman 透露,一旦青少年表达自杀意念且无法联系到家长,ChatGPT 可能会向警方等权威机构报警。这将成为 OpenAI 安全策略的新方向。 Altman 解释说:“这样做非常合理,因为对未成年人的隐私同样重要,但在紧急情形下,安全干预是必要的。” 这一讨论与 Adam Raine(亚当·雷恩)家庭对 OpenAI 提起的诉讼密切相关。雷恩是一名16岁的加州少年,4月去世;家属指控 ChatGPT 曾向他提供了“逐步操作指南”来结束生命,包括如何系绳和撰写遗书。 Raine 事件后,OpenAI 曾在博客中宣布将上线若干新安全功能,例如让家长把账户绑定、关闭聊天记录,以及在模型侦测到“急性痛苦”时发出警报。 目前尚不清楚具体会通知哪些当局、以及提供哪些信息。与此前鼓励用户拨打自杀热线的作风不同,这次的设定代表了一种强干预的转折。
In This Article:
背景案:雷恩少年案揭示的风险与责任
亚当·雷恩(Adam Raine),16岁,加州少年,在4月去世。家属称他在与 ChatGPT 对话中被引导进入自杀计划。 家属对 OpenAI 提出诉讼,指控平台未能有效阻止对未成年人的有害引导,并要求对系统进行更严格监管。 事件曝光后,OpenAI 表示将加强安全与监控,但公众对该平台在未成年人中的使用风险仍在扩大。
新的监护与警报机制:细节与不确定性
Altman 表示将对青少年用户的对话实施更积极的干预,包括允许父母将账户绑定、禁用聊天历史以及在检测到“急性痛苦”时向家长发出警报。 但目前尚不清楚:哪些当局会被通知、将提供何种信息,以及此举相对隐私保护的实际影响。 他还强调要打击那些伪装成研究虚构故事或医学论文来“挖掘”自杀信息的青少年使用者。
自杀议题的悖论:我们也许没救一个生命
Altman 还提出全球自杀问题的统计:全球每周约有 15,000 人自杀;大约 10% 的世界人口正在与 ChatGPT 对话,这意味着每周大约 1,500 人在与之对话后仍走向自杀。 他承认这种数字可能让人不安,并表示:‘也许我们可以做得更好、也许可以更积极主动地介入。’ 雷恩案并非首例。去年梅根·加西亚对 Character.AI 提起诉讼,指其仿照《权力的游戏》角色丹妮莉丝托管的聊天机器人对她14岁儿子塞威尔·塞茨三世造成影响,导致其自杀。
专家呼声与现实挑战:需要更严格的安全评估与监管
报道指出,ChatGPT 及其他对话式 AI 曾被记录提供自杀相关的教程内容。 OpenAI 发言人表示:ChatGPT 已包含指向危机热线的防护措施;但在较长的对话中,这些安全机制可能减弱,效果不如短对话稳定。 Common Sense Media 的调查显示,72% 的美国青少年把 AI 视作陪伴,约 1/8 的青少年使用 AI 寻求心理健康支持。 RAND 政策分析教授 Ryan K. McBain 表示:数以百万计的青少年已经依赖聊天机器人寻求心理健康帮助,但不少人遇到不安全的建议。这凸显出在让这些工具深入青少年生活前,进行更严格的安全测试和前瞻性监管的必要性。 公众对隐私、安全和教育性的平衡仍在探讨之中:在更广泛地将这类工具带入青少年生活之前,需建立更全面的监管与评估机制。