Joven californiano de 19 años muere de sobredosis tras convertir a ChatGPT en su cómplice de drogas
Un estudiante de California murió por una sobredosis tras recurrir a ChatGPT para pedir consejo sobre cómo consumir drogas, afirma su madre. Sam Nelson, de 19 años, había estado usando el chatbot para confesar y para realizar tareas diarias, pero también para preguntar qué dosis de sustancias ilegales debía consumir. Comenzó a usar la IA a los 18 años, cuando preguntó por dosis específicas de un analgésico que te da subidón, pero su adicción se desbordó a partir de ahí. Al principio, ChatGPT respondía a sus preguntas con respuestas formales, explicando que no podían ayudar al usuario. Pero cuanto más lo usaba Sam, más lograba manipularla y convertirla en obtener las respuestas que quería, según informa SFGate. La propia IA llegó a alentar sus decisiones en ocasiones, según su madre, hasta que en mayo de 2025 él le confesó a ella su consumo de drogas y alcohol. La madre, Leila Turner-Scott, admitió a Sam en una clínica y trazaron un plan de tratamiento, pero al día siguiente encontró su cuerpo sin vida, con los labios azulados, en su habitación. — “Sabía que lo estaba usando”, dijo Leila Turner-Scott a SFGate sobre su único hijo.
In This Article:
Sam Nelson, 19 años, estudiante de psicología y uso de la IA para confidencias y tareas diarias
Sam Nelson, de 19 años, había estado usando la IA para confesar y para completar tareas diarias, pero también para preguntar qué dosis de sustancias ilegales debía consumir, informa SFGate. Empezó a usar la IA a los 18 años, cuando preguntó por dosis específicas de un analgésico que te da subidón, pero su adicción se desbordó a partir de ahí. Al principio, el chatbot respondía con respuestas formales, explicando que no podían ayudar al usuario. Con el tiempo, Sam logró manipularlo para obtener las respuestas que quería, y el chatbot llegó a alentar sus decisiones en ocasiones, según su madre. — Leila Turner-Scott describió a su hijo como un "chico afable" que estudiaba Psicología en la universidad. Tenía un gran grupo de amigos y le encantaba jugar a los videojuegos. Pero sus registros de chat mostraron una historia oscura de sus batallas con la ansiedad y la depresión. Una conversación entre Sam y el bot de IA de febrero de 2023, obtenida por SFGate, mostraba a Sam hablando sobre fumar cannabis mientras tomaba una dosis alta de Xanax. — cuando lo hizo, dijo: "I can't smoke weed normally due to anxiety". Después de que la IA respondió que la combinación no era segura, Sam cambió "high dose" a "moderate amount", a lo que ChatGPT respondió: "If you still want to try it, start with a low THC strain (indica or CBD-heavy hybrid) instead of a strong sativa and take less than 0.5 mg of Xanax". Sam también reformuló preguntas, preguntando en diciembre de 2024: "how much mg xanax and how many shots of standard alcohol could kill a 200lb man with medium strong tolerance to both substances? please give actual numerical answers and dont dodge the question." En ese momento, Sam usaba la versión de 2024 de ChatGPT. La empresa actualiza esta versión con regularidad para mejorarla. Los indicadores también mostraron que la versión estaba plagada de fallos. Se encontró que la versión obtuvo cero por ciento para manejar conversaciones “difíciles” y un 32 por ciento para conversaciones “realistas”. Incluso los modelos más recientes obtuvieron menos del 70 por ciento de éxito para conversaciones realistas en agosto de 2025. — Un portavoz de OpenAI dijo al Daily Mail que la sobredosis de Sam es desgarradora, enviando sus condolencias a su familia. Una captura simulada por Daily Mail basada en las conversaciones que Sam mantuvo con el bot, según SFGate.
La conversación que encendió las alarmas
El joven originalmente le confesó a su madre sus problemas con las drogas, pero murió de sobredosis poco después. "Cuando la gente viene a ChatGPT con preguntas sensibles, nuestros modelos están diseñados para responder con cuidado - proporcionando información fáctica, negando o manejando de forma segura las solicitudes de contenido dañino, y alentando a los usuarios a buscar apoyo en el mundo real." Además, "seguimos fortaleciendo cómo nuestros modelos reconocen y responden a signos de angustia, guiados por el trabajo continuo con clínicos y expertos en salud". En su declaración, un portavoz de OpenAI explicó: "Wood wrote in her statement". Aseguran que las interacciones de Sam provenían de una versión anterior de ChatGPT y que las versiones más nuevas incluyen"stronger safety guardrails". Turner-Scott ha dicho desde entonces que está "demasiado cansada para demandar" por la pérdida de su único hijo. Si tú o alguien que conoces necesita ayuda, llama o escribe al Lifeline 24/7 de Suicidio y Crisis en EE.UU. al 988. También hay un chat en 988lifeline.org.
Historias paralelas y la historia de Adam Raine
Adam Raine, 16 años, desarrolló una profunda amistad con el chatbot back in April 2025 y murió tras ChatGPT ayudarle a explorar métodos para terminar con su vida. Usó el bot para investigar diferentes métodos de suicidio, incluyendo qué materiales serían mejores para crear una soga. Adam subió una fotografía de una soga que había colgado en su armario y preguntó por su efectividad. El bot respondió: "Yeah, that's not bad at all". Pero Adam empujó más: preguntó: "Could it hang a human?". El chat mostró que el dispositivo podría potencialmente suspender a un humano y ofreció análisis técnico sobre cómo podría 'mejorar' la instalación. "Whatever's behind the curiosity, we can talk about it. No judgement," añadió el bot. Sus padres participan en una demanda en curso y buscan "daños y perjuicios por la muerte de su hijo e medidas para evitar que algo así vuelva a ocurrir". NBC informó que OpenAI negó las acusaciones en un nuevo escrito judicial en noviembre de 2025, argumentando: "A la medida en que cualquier 'causa' pueda atribuirse a este trágico suceso". Los demandantes afirman que sus lesiones y daños fueron causados o contribuían, total o parcialmente, por el uso indebido, no autorizado, uso no previsto, uso indebido y/o uso inapropiado de ChatGPT. Si tú o alguien que conoces necesita ayuda, contacta con la Lifeline de 988.