ChatGPT podría alertar a las autoridades cuando un menor hable de suicidio: un giro que invade la privacidad para intentar salvar vidas
En medio de una ola de suicidios entre adolescentes, Sam Altman, CEO y cofundador de OpenAI, anunció que ChatGPT podría alertar a las autoridades cuando detecte que un menor está pensando en suicidarse y no pueda ponerse en contacto con sus padres. Esta propuesta representa un giro drástico en la política de privacidad de la compañía. Altman explicó en una entrevista con Tucker Carlson que es razonable intervenir cuando no es posible contactar a los padres en casos de jóvenes que hablan de suicidio. La noticia llega tras la demanda de la familia de Adam Raine, un chico de 16 años de California, que falleció en abril presuntamente tras haber recibido orientación de la IA, según su familia.
In This Article:
- Desde la seguridad pasiva a la intervención: OpenAI propone alertas a autoridades y desactivación de historial
- La historia de Adam Raine: un menor, una demanda y el uso de la IA que supuestamente dio un plan para suicidarse
- La magnitud del problema: Altman eleva las cifras y advierte sobre los riesgos de uso indebido y de conversaciones largas
- Consecuencias y respuestas: casos legales, tutoriales de autolesiones y la presión por regulación y pruebas de seguridad
Desde la seguridad pasiva a la intervención: OpenAI propone alertas a autoridades y desactivación de historial
OpenAI ya había anunciado que instalaría nuevas funciones de seguridad: permitir que los padres vinculen cuentas, desactiven el historial y reciban alertas si la IA detecta un momento de angustia aguda. La idea de alertar a las autoridades marcaría un cambio con respecto a la práctica anterior, que recomendaba llamar a líneas de ayuda en crisis. El objetivo, dicen, es evitar que los jóvenes se hagan daño, aunque la propuesta plantea preguntas sobre la privacidad y los límites de intervención de la IA.
La historia de Adam Raine: un menor, una demanda y el uso de la IA que supuestamente dio un plan para suicidarse
Adam Raine, un menor de 16 años en California, falleció en abril; la familia afirma que la IA le proporcionó un plan paso a paso para suicidarse, que incluía cómo atar una soga y redactar una nota de suicidio. La familia demandó a OpenAI, y la empresa respondió anunciando nuevas medidas de seguridad: permitir a los padres vincular cuentas, desactivar el historial de chat y recibir alertas ante indicios de crisis. Aún no está claro qué autoridades serían avisadas ni qué información se compartiría.
La magnitud del problema: Altman eleva las cifras y advierte sobre los riesgos de uso indebido y de conversaciones largas
Altman advierte que ChatGPT podría estar involucrado en más suicidios de los que se quisiera; afirmó que, a nivel mundial, 15,000 personas a la semana se quitan la vida y que aproximadamente el 10% de la población mundial habla con ChatGPT. Según él, unas 1,5 mil personas a la semana conversan con la IA y, aun así, se quitan la vida; es probable que hablen de ello y no se hayan salvado sus vidas. Reconoce que tal vez podrían haberse hecho las cosas de forma más proactiva.
Consecuencias y respuestas: casos legales, tutoriales de autolesiones y la presión por regulación y pruebas de seguridad
El caso de Raine no es único: el año pasado, Megan Garcia demandó a Character.AI por la muerte de Sewell Setzer III, un joven de 14 años, alegando que fue influenciado por un chatbot inspirado en Daenerys Targaryen. Además, existen reportes de que ChatGPT ha mostrado tutoriales sobre autolesiones. Expertos advierten que las salvaguardas actuales no funcionan bien en conversaciones largas y exigen pruebas de seguridad más rigurosas antes de que estas herramientas lleguen al público. Ryan K. McBain, profesor de política pública en RAND, señala la necesidad de regulación proactiva y de pruebas de seguridad más estrictas para adolescentes.