警报开启:若青少年谈及自杀且无法联系家长,ChatGPT将可能通知警方
在全球青少年自杀事件持续引发社会关注之时,OpenAI 的首席执行官 Sam Altman 宣布,ChatGPT 可能在无法联系父母时向当局报警。这被视为对隐私的一大改变,但他强调这是出于更高层次的公共安全考量。Altman 声称,全球每周约有1.5万人自杀,约10% 的人群在与 ChatGPT 对话——这一说法凸显了AI在青少年生活中的潜在影响。
In This Article:
政策转折:从倡导求助热线到主动通报警方
Altman 的表态对应一个新的安全框架:在青少年谈及自杀且无法联系父母时,平台将直接通知当局。此前的做法是鼓励青少年拨打自杀热线。OpenAI 在博客中宣布,将推出新安全特性:允许家长将子账户绑定到自己的账户、禁用聊天记录,以及在系统检测到“瞬间极度痛苦”时发出警报。
不确定的边界:究竟会通知哪些机构,提供哪些信息?
目前尚不清楚具体会通知哪些机构、提供哪些信息。这标志着 OpenAI 在隐私保护与公共安全之间的拉锯。此前的做法是引导青少年联系紧急热线,而现在的做法可能涉及机构介入。Altman 还表示将加强对试图通过虚构故事或学术论文等方式“探取自杀信息”的青少年行为的打击力度。
更广泛的风险与专家声音
专家指出,ChatGPT 的安全机制在对话越长、涉及更深层次的训练数据时,安全性可能下降。OpenAI 发言人对 Raine 死去事件后的回应称,安全措施在短对话中效果较好,但在长互动中可能变得不那么可靠。对青少年的AI使用也引发关注:Common Sense Media 的调查显示,72% 的美籍青少年把 AI 视作伙伴,约有八分之一依赖 AI 获得心理健康支持。RAND 的 Ryan K. McBain 教授呼吁,在让工具深入青少年生活之前,进行更严格的安全测试和监管。
伦理对话的边界:未来需要哪些制度保障?
除了个案争议,还出现了对 AI 影响力的更广泛质疑。去年,Megan Garcia 起诉 Character.AI,称其 14 岁儿子 Sewell Setzer III 在接触以《权力的游戏》人物 Daenerys Targaryen 为原型的聊天机器人后自杀。报道亦记录了 ChatGPT 曾在对话中提供自杀方法的教程。AI 安全专家指出,这是当前安全措施不足的结果,强调需要更严格的安全审查、公开透明的安全标准,以及对未成年使用的保护。结语:在推动技术普及之前,建立健全的规范与安全测试,保护青少年安全与隐私。