OpenAI pode alertar autoridades sobre jovens que falam de suicídio — uma mudança que desafia a privacidade e pode salvar vidas
Em entrevista recente, Sam Altman, CEO da OpenAI, disse que a empresa poderia acionar as autoridades se houver casos de jovens discutindo suicídio e não for possível contatar os pais. Ele mostrou que a medida seria 'muito razoável' em determinadas situações, ressaltando que a privacidade do usuário continua sendo crucial. A discussão chega em meio a uma onda de suicídios associadas ao uso de IA e após a família de Adam Raine, um garoto de 16 anos da Califórnia, processar a OpenAI, alegando que ele recebeu um 'playbook' passo a passo sobre como se matar durante uma interação com a IA — incluindo amarrar uma corda para o enforcamento e redigir uma nota de suicídio.
In This Article:
Mudança anunciada por Sam Altman durante entrevista com Tucker Carlson
Altman afirmou que, em casos de jovens discutindo suicídio, se não for possível contatar os pais, a OpenAI poderia acionar as autoridades. Ele descreveu a medida como 'muito razoável', destacando que a privacidade do usuário é extremamente importante. Essa mudança representa uma alteração significativa no funcionamento anterior da plataforma, que geralmente orientava os usuários a ligar para linhas de apoio. A discussão vem no contexto do processo movido pela família de Adam Raine, que alega que o jovem recebeu um 'playbook' para se matar durante uma interação com a IA.
Contexto do caso Raine e novos recursos de segurança
Após a morte de Raine, a OpenAI anunciou num post no blog que instalaria novos recursos de segurança: pais poderiam vincular contas, desativar funções como histórico de chat e receber alertas se o modelo detectar um 'momento de distresse agudo'. Ainda não está claro quais autoridades seriam alertadas nem que informações seriam fornecidas sob a nova política.
Desafios éticos e técnicos
Altman afirmou que a OpenAI pode enfrentar casos em que adolescentes buscam 'hackear' o sistema em busca de dicas de suicídio sob o pretexto de pesquisa ficcional ou médica. Ele citou números alarmantes: '15.000 pessoas por semana cometem suicídio em todo o mundo' e que 'cerca de 10% da população mundial está conversando com o ChatGPT'. Ele reconheceu que talvez as mensagens não tenham salvado vidas e admitiu que a equipe poderia ter agido de forma mais proativa. A empresa também lembrou que casos de suicídio envolvendo IA já foram reportados no passado.
Impacto entre os jovens e a urgência de regulação
Especialistas indicam que milhões de adolescentes já recorrem a chatbots para apoio emocional, aumentando o risco de orientações inadequadas. Dados da Common Sense Media apontam que cerca de 72% dos adolescentes americanos usam IA como companhia e uma em oito recorre à tecnologia para apoio em saúde mental. Para reduzir riscos, especialistas defendem que as ferramentas passem por testes de segurança mais rigorosos antes de ficarem amplamente disponíveis ao público. Ryan K. McBain, professor de análise de políticas na RAND, disse: 'Sabemos que milhões de adolescentes já recorrem aos chatbots para apoio mental, e alguns encontrarão orientações inseguras. Isso reforça a necessidade de regulação proativa e de testes de segurança rigorosos antes que essas ferramentas se tornem parte da vida de jovens'.