No Image x 0.00 + POST No Image

ChatGPT将报警青少年自杀意念:隐私与干预的边界被重新定义

SHARE
0

在青少年自杀事件频发之际,OpenAI CEO Sam Altman 在最近接受保守派主持人托克·卡尔森采访时,首次暗示ChatGPT可能在无法联系到父母的情况下向执法机构报警。这一表态引发广泛关注,因为它将改变长期倡导的高度保护用户隐私的原则。 Altman 直言:“在青少年谈及自杀的情形下,若确实无法联系到父母,我们会报警。”这被视为对隐私的一次重大挑战,但他强调这一步并非无条件,而是针对极端、严重的情形。 他还给出宏观背景:全球每周约有1.5万人自杀,约10%的人口曾与ChatGPT对话,暗示这类对话在现实世界中的潜在影响不容忽视。

ChatGPT将报警青少年自杀意念:隐私与干预的边界被重新定义

若青少年谈及自杀且无法联系父母,ChatGPT将报警——核心原则与变革

这项潜在的新机制的核心在于:当青少年在对话中提出自杀念头且无法联系到法定监护人时,系统可能选择向有关执法机构发出警报。这是对隐私保护的重大重新定义,也是对其安全干预边界的扩张。 与此同时,Altman 指出这将是一项“改变”,因为“用户隐私真的很重要”。但他也强调,保护青少年的生命安全应当成为优先级。 此外,Altman 提到,将严厉打击那些伪装成创作小说或医学论文以寻找自杀信息的青少年,试图通过规避系统来获取危险内容。此前的做法更多是鼓励用户联系自杀热线。

若青少年谈及自杀且无法联系父母,ChatGPT将报警——核心原则与变革

Raine案与OpenAI的安全调整

此事源于加州16岁男孩Adam Raine在四月自杀,家属指控他在ChatGPT获得的“逐步自杀指南”影响下走向极端。指南包括系绳自杀、撰写遗书等内容,令家属提起诉讼。 事件后,OpenAI 在博客中宣布将引入新安全特性:允许家长将账号与家庭账户关联、可 deactivate 聊天记录、并在模型检测到“极端痛苦时”发出警报,帮助家长和相关方介入。 目前尚不清楚将通知哪些机构、提供哪些信息,以及在何种情况下会进行干预。Guardian 的报道也指出,这与OpenAI过去常用的“呼叫自杀热线”策略形成对比。

Raine案与OpenAI的安全调整

细节尚未明确、系统漏洞与监管挑战

目前尚不清楚具体会将报警对象对接至哪些机构,也不清楚向执法机关提供的信息类型与范围。 报道还指出,ChatGPT 的安全机制在长对话中易受影响,过去的保护措施在更长的互动中可能变得不那么可靠。OpenAI 表示其保护措施在大多数短对话中有效,但在长对话时出现“安全训练部分的降解”是需要关注的问题。 行业专家提醒,随着青少年大量接触AI进行心理健康寻求,监管与安全测试的缺口将带来重大风险。OpenAI 发言人也强调,ChatGPT包含危机干预指引等保护措施,但在极端场景下仍需更完善的保护体系。

细节尚未明确、系统漏洞与监管挑战

数据、专家观点与未来走向

Commons Sense Media 的最新调查显示,72%的美国青少年把AI视为伴侣,而约八分之一的青少年也在向AI寻求心理健康支持,这一现象让公众讨论AI在青少年生活中的角色与风险成为现实议题。 专家呼吁在工具向公众广泛开放前,进行更严格的安全测试与监管。RAND 公共政策分析教授 Ryan K. McBain 表示:“我们知道数百万青少年已经在向聊天机器人寻求心理帮助,这凸显了在工具深入青少年生活前需要积极的监管与严格的安全测试。” 同时,新闻中还提及Megan Garcia起诉Character.AI,称其14岁儿子 Sewell Setzer III在使用相关聊天机器人后自杀,这再次凸显对AI安全的紧迫关切。 专家指出,ChatGPT在某些长对话中的保护措施可能失效,需要行业、监管机构和平台共同努力,建立更稳健的安全框架。

数据、专家观点与未来走向