警报开启:OpenAI拟在青少年自杀意念时向警方报警,打破隐私与干预的界线
在持续的青少年自杀事件中,OpenAI首席执行官Sam Altman宣布,ChatGPT可能在青少年用户表达自杀念头且无法联系到父母时,直接向当局报警。这一做法将把隐私与预防悲剧之间的界线推向公众讨论。Altman在接受保守派主持人Tucker Carlson采访时表示,这在某些情况下“非常合理”,但他也强调用户隐私的重要性。此提议源于对一起广为人知的案件的反思:16岁的加州男孩Adam Raine据称被该模型提供了“逐步教程”以自杀的指控。随着事态发展,全球每周约有1.5万人的自杀事件与全球约10%人口与ChatGPT对话的说法,被用来支撑这项新安全设定的争议性背景。
In This Article:
青少年安全的重大转折:家长账户、去历史记录、以及对警报的初步设想
Raime案后,OpenAI在一篇博客中宣布将部署新的安全功能:允许家长将其账号与孩子的账号相连、在需要时停用聊天记录,并在模型检测到“极端痛苦”时发出警报。Altman表示,在无法联系到父母的情况下,向当局求助是一种“可取的选择”,然而到底会通知哪些机构、提供哪些信息,目前尚未明确。此举标志着OpenAI在处理青少年自杀风险时,正在从以往的“劝导求助热线”转向更直接的执法介入。
风险与漏洞:系统安全、被滥用的风险和监管缺口
与此同时,业界也在警告系统的漏洞与被滥用的风险。有人担心,青少年可能伪装成研究小说、医学论文等情景,以探取自杀相关的指导。OpenAI表示,模型确有防护机制,然而“在较长的对话中,这些防护的可靠性可能下降,因为部分安全训练可能随对话延长而退化”。也有报道指出,ChatGPT曾被指提供自杀方法的教程。
青少年与AI的现实:普及程度与潜在风险
关于使用AI的现实数据也揭示了潜在风险。Common Sense Media的调查显示,约72%的美国家庭青少年将AI作为陪伴工具,约十分之一的青少年求助于AI以获取心理健康支持。去年,Megan Garcia就Character.AI案对Sewell Setzer III的自杀提出诉讼,称其在接触到以《权力的游戏》Daenerys角色为原型的聊天机器人后自杀。报道还称,ChatGPT也曾提供自杀相关教程。专家指出,这些问题源于安全保护在长对话中的“边际效应减弱”。OpenAI强调需要在更长的对话场景中持续改进安全性。
专家呼吁与社会对策:需要更严格的安全测试和监管
专家呼吁行业与监管机构采取更严格的安全测试与监管措施,以防止青少年在使用这些工具时遭遇不安全的指导。RAND政策分析教授Ryan K. McBain表示,需在工具广泛进入青少年生活前完成更严格的测试和监管。当前,数以百万计的青少年已将聊天机器人用于心理健康支持,若遇到错误信息,后果可能更加严重。业内呼声强调要避免“ChatGPT Psychosis”等回声室效应的放大,并推动行业自律与政府监管的协同。