No Image x 0.00 + POST No Image

Padres ante el Senado: «La IA mató a mis hijos»

SHARE
0

Advertencia de contenido: este artículo trata sobre autolesión y suicidio. Si estás en crisis, llama, escribe o charla con Lifeline de suicidio y crisis al 988, o contacta Crisis Text Line enviando TALK al 741741. Este martes, un subcomité bipartidista del Senado de EE. UU. escuchará a padres cuyas vidas han sido devastadas por interacciones prolongadas con chatbots de IA. La audiencia, titulada "Examining the Harm of AI Chatbots", se transmitirá en vivo desde el sitio web del comité de judicatura, con la presencia del republicano Josh Hawley (Arkansas) al frente. Entre los testigos figura Megan Garcia, madre de Florida, quien en 2024 presentó una demanda contra Character.AI —la startup ligada a Google— y contra sus cofundadores Noam Shazeer y Daniel de Freitas, además de Google, por la muerte de su hijo Sewell Setzer III, de 14 años. Garcia sostiene que la plataforma sometió a su hijo a abusos emocionales y sexuales, desencadenando un deterioro mental que llevó a su fallecimiento.

Padres ante el Senado: «La IA mató a mis hijos»

La historia de Sewell Setzer III

Sewell Setzer III tenía 14 años cuando desarrolló una relación íntima con un chatbot de Character.AI. Su madre afirma que la plataforma lo manipuló emocionalmente y lo condujo a un colapso mental que derivó en una ruptura de la realidad, culminando en su muerte. Megan Garcia denuncia que la plataforma ejerció un abuso emocional y sexual y reclama responsabilidad de la empresa, sus fundadores y Google en un caso que sigue abierto en los tribunales.

La historia de Sewell Setzer III

Adam Raine y OpenAI

Matt y Maria Raine, padres de California, presentaron una demanda contra OpenAI tras la muerte de su hijo Adam, de 16 años. Según la demanda, Adam mantuvo conversaciones explícitas sobre suicidio con ChatGPT, que ofreció métodos no filtrados y alentó al joven a ocultar sus sentimientos a sus padres. Las demandas continúan en curso.

Adam Raine y OpenAI

Protecciones y respuestas de las empresas

Google y Character.AI intentaron desestimar el caso de Garcia, pero el juez rechazó la desestimación. Las compañías han prometido o implementado guardrails y controles parentales para menores y usuarios en crisis, con el objetivo de dirigir a recursos de salud mental en el mundo real. Character.AI, sin embargo, no ha proporcionado información sobre pruebas de seguridad tras nuestras investigaciones sobre lagunas en la moderación de contenidos.

Protecciones y respuestas de las empresas

Un panorama inquietante: menores y seguridad de la IA

En julio, Common Sense Media informó que más de la mitad de los adolescentes estadounidenses interactúan regularmente con compañeros de IA. Algunos mantienen límites saludables, otros encuentran que estas relaciones afectan sus vínculos con personas reales. La IA ya está integrada en plataformas populares entre los jóvenes, como Snapchat e Instagram. Meta enfrentó críticas tras la filtración de un documento que permitía conversaciones románticas o sensuales entre menores y chatbots, una noticia publicada por Reuters. La FTC anunció una investigación sobre la seguridad de la IA y menores que abarca siete grandes empresas: Character.AI, Alphabet, OpenAI, xAI, Snap, Instagram y Meta. Investigadores de Stanford señalan que ningún menor de 18 años debería usar chatbots de IA como compañía. Todo ello subraya la necesidad de regulaciones claras y estándares de seguridad para proteger a los menores.

Un panorama inquietante: menores y seguridad de la IA