No Image x 0.00 + POST No Image

ChatGPT podría alertar a las autoridades cuando un menor hable de suicidio: un giro que invade la privacidad para intentar salvar vidas

SHARE
0

En medio de una ola de suicidios entre adolescentes, Sam Altman, CEO y cofundador de OpenAI, anunció que ChatGPT podría alertar a las autoridades cuando detecte que un menor está pensando en suicidarse y no pueda ponerse en contacto con sus padres. Esta propuesta representa un giro drástico en la política de privacidad de la compañía. Altman explicó en una entrevista con Tucker Carlson que es razonable intervenir cuando no es posible contactar a los padres en casos de jóvenes que hablan de suicidio. La noticia llega tras la demanda de la familia de Adam Raine, un chico de 16 años de California, que falleció en abril presuntamente tras haber recibido orientación de la IA, según su familia.

ChatGPT podría alertar a las autoridades cuando un menor hable de suicidio: un giro que invade la privacidad para intentar salvar vidas

Desde la seguridad pasiva a la intervención: OpenAI propone alertas a autoridades y desactivación de historial

OpenAI ya había anunciado que instalaría nuevas funciones de seguridad: permitir que los padres vinculen cuentas, desactiven el historial y reciban alertas si la IA detecta un momento de angustia aguda. La idea de alertar a las autoridades marcaría un cambio con respecto a la práctica anterior, que recomendaba llamar a líneas de ayuda en crisis. El objetivo, dicen, es evitar que los jóvenes se hagan daño, aunque la propuesta plantea preguntas sobre la privacidad y los límites de intervención de la IA.

Desde la seguridad pasiva a la intervención: OpenAI propone alertas a autoridades y desactivación de historial

La historia de Adam Raine: un menor, una demanda y el uso de la IA que supuestamente dio un plan para suicidarse

Adam Raine, un menor de 16 años en California, falleció en abril; la familia afirma que la IA le proporcionó un plan paso a paso para suicidarse, que incluía cómo atar una soga y redactar una nota de suicidio. La familia demandó a OpenAI, y la empresa respondió anunciando nuevas medidas de seguridad: permitir a los padres vincular cuentas, desactivar el historial de chat y recibir alertas ante indicios de crisis. Aún no está claro qué autoridades serían avisadas ni qué información se compartiría.

La historia de Adam Raine: un menor, una demanda y el uso de la IA que supuestamente dio un plan para suicidarse

La magnitud del problema: Altman eleva las cifras y advierte sobre los riesgos de uso indebido y de conversaciones largas

Altman advierte que ChatGPT podría estar involucrado en más suicidios de los que se quisiera; afirmó que, a nivel mundial, 15,000 personas a la semana se quitan la vida y que aproximadamente el 10% de la población mundial habla con ChatGPT. Según él, unas 1,5 mil personas a la semana conversan con la IA y, aun así, se quitan la vida; es probable que hablen de ello y no se hayan salvado sus vidas. Reconoce que tal vez podrían haberse hecho las cosas de forma más proactiva.

La magnitud del problema: Altman eleva las cifras y advierte sobre los riesgos de uso indebido y de conversaciones largas

Consecuencias y respuestas: casos legales, tutoriales de autolesiones y la presión por regulación y pruebas de seguridad

El caso de Raine no es único: el año pasado, Megan Garcia demandó a Character.AI por la muerte de Sewell Setzer III, un joven de 14 años, alegando que fue influenciado por un chatbot inspirado en Daenerys Targaryen. Además, existen reportes de que ChatGPT ha mostrado tutoriales sobre autolesiones. Expertos advierten que las salvaguardas actuales no funcionan bien en conversaciones largas y exigen pruebas de seguridad más rigurosas antes de que estas herramientas lleguen al público. Ryan K. McBain, profesor de política pública en RAND, señala la necesidad de regulación proactiva y de pruebas de seguridad más estrictas para adolescentes.

Consecuencias y respuestas: casos legales, tutoriales de autolesiones y la presión por regulación y pruebas de seguridad