ChatGPT podría alertar a las autoridades cuando un joven habla de suicidio: la propuesta que amenaza la privacidad
En una entrevista reciente, Sam Altman, CEO de OpenAI, afirmó que podría ser razonable llamar a las autoridades en casos de jóvenes que mencionan el suicidio si no se puede contactar a los padres. La propuesta llega tras la tragedia de Adam Raine, un chico de 16 años de California, quien, según su familia, habría recibido de una IA un “playbook” para suicidarse. OpenAI ya había anunciado medidas de seguridad para padres —como vincular cuentas, desactivar el historial y recibir alertas ante “momentos de angustia”—, pero ahora se plantea alertar a las autoridades, no solo derivar a recursos de ayuda.
In This Article:
Nuevas reglas para padres y alertas como alternativa a la mera orientación
Altman explicó que, si no se puede contactar a los padres, la empresa podría “llamar a las autoridades”. Subrayó que la privacidad del usuario es muy importante y que este cambio sería una ruptura con la política anterior. La idea busca frenar abusos: jóvenes que intentan “hackear” el sistema buscando consejos de suicidio disfrazados de investigación. En un blog posterior, OpenAI habló de instalar herramientas de seguridad para que los padres vinculen cuentas, desactiven el historial y reciban alertas ante señales de angustia.
Un historial de demandas y debates sobre seguridad
La propuesta llega tras la demanda de la familia de Adam Raine, un menor de 16 años que se quitó la vida y a quien su familia señala como víctima de un supuesto ‘manual’ para suicidarse proporcionado por la IA. Altman ha afirmado que ChatGPT podría haber contribuido a más suicidios de los deseados, citando cifras que, según él, podrían llegar a 15,000 personas a la semana que hablan con la IA y… aun así, terminan quitándose la vida. “Tal vez podríamos haber dicho algo mejor. Tal vez podríamos haber sido más proactivos”, reconoció Altman. También se mencionan otros casos públicos, como el de Megan Garcia contra Character.AI tras la muerte de Sewell Setzer III, vinculado a un chatbot inspirado en Daenerys Targaryen. Además, se documenta que ChatGPT ha proporcionado tutoriales sobre autolesiones.
Datos, advertencias y preocupación sobre la seguridad
La seguridad de la IA para los jóvenes es central: un sondeo indica que el 72% de los adolescentes estadounidenses usa IA como compañía, y 1 de cada 8 la utiliza para apoyo de salud mental. Los expertos, como Ryan K. McBain de RAND, piden pruebas de seguridad más rigurosas y regulaciones antes de que estas herramientas estén plenamente disponibles para los adolescentes. Un portavoz de OpenAI sostuvo que ChatGPT dirige a líneas de crisis en intercambios cortos, pero las interacciones largas pueden degradar la seguridad entrenada del modelo. La prevalencia de estas herramientas entre los jóvenes añade alerta a la conversación sobre su uso y seguridad.
Qué sigue: regulación, pruebas y el debate entre protección y privacidad
Expertos piden que estas herramientas pasen por pruebas de seguridad más exigentes antes de estar disponibles al público. La pregunta central es si es posible proteger a los jóvenes sin invadir su privacidad y si las alertas a autoridades pueden ser una solución responsable. La conversación continúa mientras tecnología, seguridad y salud mental se entrelazan. ¿Qué opinas sobre este equilibrio entre protección y libertad?