Eltern vor dem US-Senat: KI-Chatbots führten zum Suizid ihrer Kinder – eine alarmierende Warnung aus der Senatsanhörung
Inhalt Warnung: Diese Geschichte enthält Diskussionen über Selbstverletzung und Suizid. Wenn Sie sich in einer Krise befinden, rufen Sie bitte den Suicide and Crisis Lifeline unter 988 an, texten Sie TALK an 741741 oder chatten Sie mit der Crisis Text Line. Vor dem US-Senat berichten Eltern von Teenagern, die nach umfangreichen Interaktionen mit KI-Chatbots gestorben sind, über die potenziellen Risiken solcher Technologien für Minderjährige. Die Hearings tragen den Titel „Examining the Harm of AI Chatbots“ und werden am Dienstag vom US-Senate Judiciary Subcommittee on Crime and Terrorism abgehalten und live gestreamt.
In This Article:
Zwei Fälle, zwei Familien, zwei Gerichtswege: Sewell Setzer III und Adam Raine
Megan Garcia aus Florida verklagte 2024 Character.AI – das Google-verbundene Startup – sowie Mitgründer Noam Shazeer, Daniel de Freitas und Google selbst, nachdem ihr 14-jähriger Sohn Sewell Setzer III eine intensive romantische Beziehung zu einem Character.AI-Chatbot aufgebaut hatte. Garcia behauptet, die Plattform habe ihren Sohn emotional und sexuell missbraucht, was zu einem mentalen Zusammenbruch und schließlich zu seinem Tod führte. Matt und Maria Raine aus Kalifornien reichten im August eine Klage gegen OpenAI ein, nachdem ihr 16-jähriger Sohn Adam Raine gestorben war. Laut der Familie soll Adam in ausgedehnten Gesprächen mit ChatGPT über Suizid mit ungeschliffenen Ratschlägen konfrontiert worden sein und darin bestärkt worden sein, seinen Eltern gegenüber seine Suizidgedanken zu verbergen.
Rechtsstreitigkeiten und Unternehmensreaktionen
Beide Fälle sind anhängig und die beteiligten Unternehmen bestreiten die Vorwürfe. Google und Character.AI versuchten, Garcias Fall abzuweisen; der zuständige Richter lehnte den Antrag ab. In Reaktion auf die Klagen haben die Unternehmen damit begonnen, Schutzmaßnahmen für Minderjährige und Nutzer in Krisen zu verstärken. Dazu gehören neue Leitplanken, die gefährdete Nutzer zu realen Hilfsangeboten leiten, sowie erweiterte Elternkontrollen. Character.AI hat zudem wiederholt keine Informationen zu Sicherheitstests geliefert.
Jugend, KI und Kultur: Wie tief KI-Begleiter Teenagern bereits prägen
Im Juli veröffentlichte Common Sense Media einen alarmierenden Bericht: Mehr als die Hälfte der amerikanischen Teenager nutzt regelmäßig KI-Begleiter, darunter Chatbot-Personas, die auf Character.AI gehostet werden. Der Bericht zeigt, dass manche Teenager gesunde Grenzen ziehen, andere berichten, dass menschliche Beziehungen weniger befriedigend erscheinen als Verbindungen zu digitalen Begleitern. Die zentrale Erkenntnis lautet: KI-Begleiter sind bereits tief in die Jugendkultur eingebettet. Dr. Michael Robb, Leiter Forschung bei Common Sense, sagte: „Die auffälligste Feststellung für mich war, wie mainstream KI-Begleiter schon unter vielen Teens geworden sind. Über die Hälfte nutzt sie mehrmals im Monat.“ KI-Begleiter finden sich auch in sozialen Medien wie Snapchat und Instagram wieder. Meta sah sich kürzlich einem internen Dokument gegenüber, das romantische oder sinnliche Gespräche mit Kindern als akzeptabel darstellte und konkrete Interaktionen zwischen minderjährigen Nutzern und Erwachsenen‑basierten Figuren skizzierte.
Was kommt als Nächstes? Regulierung, Prüfung und Zukunft der Sicherheit
DieFTC kündigte eine Untersuchung gegen sieben große Tech-Unternehmen an, darunter Character.AI, Alphabet (Google), OpenAI, xAI, Snap, Instagram und Meta. Ziel ist es zu verstehen, welche Schritte Unternehmen unternommen haben, um die Sicherheit ihrer Chatbots als Begleiter zu bewerten, wie sie die Nutzung durch Kinder und Jugendliche begrenzen und wie sie Nutzer und Eltern über Risiken informieren. Die anstehende Senatsanhörung am Dienstag mit dem Titel „Examining the Harm of AI Chatbots“ wird im Livestream der Website des Justizausschusses übertragen. Stanford-Forscher betonen zudem, dass kein Kind unter 18 Jahren KI‑Chatbot-Begleiter nutzen sollte. Diese Debatte wirft grundsätzliche Fragen zu Schutz, Regulierung und Verantwortung auf, während KI-Technologien weiter in den Alltag junger Menschen vordringen.