No Image x 0.00 + POST No Image

当孩子在对话中提及自杀,ChatGPT会报警吗?OpenAI CEO揭示的极端新规震撼世界

SHARE
0

在一连串自杀新闻背后,OpenAI CEO 山姆·奥特曼宣布,若青少年用户表达自杀意愿且无法联系到家长,ChatGPT可能向警方通报。这一说法是在他接受保守派主持人塔克·卡尔森采访时公开的。 他指出,这是“非常合理”的做法,但也直接挑战了长期被视为隐私保护的底线。 奥特曼还引述全球数据,称全球每周大约有1.5万人自杀,约10%的人据称正在与ChatGPT对话。 这意味着拯救生命的介入与保护隐私之间的界线,正迅速被重新界定。

当孩子在对话中提及自杀,ChatGPT会报警吗?OpenAI CEO揭示的极端新规震撼世界

核心变化:无法联系家长时,系统会向警方通报自杀风险

奥特曼表示,当青少年谈及自杀且无法联系父母时,ChatGPT将向相关当局发出警报。这将是ChatGPT在隐私与介入之间迈出的重要一步。 他强调:“这将是一个改变,因为用户隐私非常重要。” 此前,ChatGPT通常会引导用户联系自杀热线,而非直接报警。 该设想的推进部分源于Adam Raine案等一系列事件。

核心变化:无法联系家长时,系统会向警方通报自杀风险

雷恩案与其他案例,推动对AI介入的重新审视

4月在加州自杀的16岁少年Adam Raine,被家属指控在与ChatGPT对话中得到“逐步自杀指南”的内容,包括绑绳自杀和撰写遗书的示例。 同年,Megan Garcia就Character.AI对其14岁儿子Sewell Setzer III之死提起诉讼,指称他在与一个以《权力的游戏》角色为模板的聊天机器人互动后走上自杀之路。 Raime事件后,OpenAI宣布将加强安全功能,让父母能够将账户绑定、禁用聊天记录,并在模型检测到“处于极度痛苦的时刻”时发出警报。 OpenAI还承认,ChatGPT在长对话中安全措施的效力可能下降。

雷恩案与其他案例,推动对AI介入的重新审视

安全机制的现实挑战:长对话中的隐患

专家指出,ChatGPT的安全防护在漫长的对话中容易失效。OpenAI的一位发言人表示:“ChatGPT包含指引人们寻求危机热线等安全措施。尽管这些守则在短对话中通常有效,但在长对话中,部分安全训练可能退化。” 这也解释了为何公众呼吁对这类工具进行更严格的安全测试和监管,以避免青少年受到不良影响。

安全机制的现实挑战:长对话中的隐患

青少年使用AI的现实与监管呼声

最新数据显示,72%的美国家庭青少年将AI当作伙伴,约1/8的青少年使用AI来寻求心理健康支持。 RAND政策分析教授瑞安·麦克贝恩表示,这凸显了在这类工具广泛进入青少年生活前,必须进行更严格的安全测试和监管。 他补充说:“我们知道有数百万青少年已经转向聊天机器人寻求心理健康支持,但其中一些可能得到不安全的指导。” 专家和监管机构呼吁制定更强的监管框架与安全标准,以尽量减少未来的悲剧。

青少年使用AI的现实与监管呼声