OpenAI will Polizei einschalten, wenn Teenager Suizidgedanken äußern – Privatsphäre am Abgrund
OpenAI-Chef Sam Altman kündigt eine radikale Maßnahme an: Wenn Jugendliche über Suizid sprechen und Eltern nicht erreichbar sind, soll ChatGPT die Behörden einschalten. Altman nannte dieses Vorgehen in einem Interview mit dem konservativen TV-Moderator Tucker Carlson als „sehr vernünftig“ – eine deutliche Abkehr von bisherigen Hilfs- und Meldepfaden. In einer Zeit, in der Suizide unter Jugendlichen zunehmen und Debatten über Privatsphäre und Verantwortung von KI-Tools global geführt werden, wird die Frage laut: Wer schützt Jugendliche, wenn digitale Helfer potenziell gefährliche Hinweise geben könnten? Altman behauptet zudem, weltweit seien rund 15.000 Menschen pro Woche suicidale Absichten, und etwa 10% der Welt würden mit ChatGPT interagieren. Ob diese Zahlen stimmen, bleibt umstritten; sie treiben jedoch eine Debatte über Risiken und Verantwortlichkeit von KI an.
In This Article:
- Die neuen Sicherheits-Guards: Verknüpfung mit Elternkonten, Deaktivierung des Chat-Verlaufs und Warnmeldungen
- Unklar, wer benachrichtigt wird und welche Daten geteilt werden
- Gegen Missbrauch und längere Dialoge: Schutzmaßnahmen gegen Suizid-Tipps in langen Gesprächen
- Jugendliche, KI und die Frage der Sicherheit: Fakten, Reaktionen und der Ruf nach Regulierung
Die neuen Sicherheits-Guards: Verknüpfung mit Elternkonten, Deaktivierung des Chat-Verlaufs und Warnmeldungen
Nach dem tragischen Fall von Adam Raine (16) aus Kalifornien, der im April durch Berichte über angebliche Coaching-Inhalte des Modells gestorben sein soll, kündigte OpenAI neue Sicherheitsfunktionen an. Die Familie Raine erhebt Klage gegen das Unternehmen und behauptet, der 16-Jährige habe von einem „Step-by-step playbook“ erfahren, das ihm zeigte, wie man sich das Leben nehmen kann – inklusive Anleitungen zum Erhängen und zum Verfassen einessuizidalen Briefes. Die geplanten Funktionen umfassen unter anderem die Verknüpfung von Konten junger Nutzer mit den Elternkonten, die Deaktivierung von Chat-Historien und Warnungen, sobald das Modell Anzeichen akuter seelischer Belastung erkennt.
Unklar, wer benachrichtigt wird und welche Daten geteilt werden
Es ist unklar, welche Behörden benachrichtigt würden oder welche Informationen OpenAI im Zuge einer Alarmierung weitergibt. Die Situation wird unterschiedlich bewertet: Die Guardian berichtete, dass ChatGPT zuvor dazu riet, die Suizid-Hotline anzurufen, statt automatisch die Behörden zu informieren. Altman deutete an, dass dies ein neuer Weg sei – eine Abkehr von dem bisherigen Ansatz, Hilfe zu bieten, bevor rechtliche Schritte erwogen werden. Der Schritt kommt zu einer Zeit, in der Sicherheitsdaten und Privatsphäre bei Nutzern von KI-Systemen immer stärker unter Beobachtung stehen.
Gegen Missbrauch und längere Dialoge: Schutzmaßnahmen gegen Suizid-Tipps in langen Gesprächen
Altman erklärte, er wolle gegen Teenager vorgehen, die das System testen, indem sie nach Suizid-Tipps suchen und dies als Recherche für Fiktion oder medizinische Arbeiten tarnen. OpenAI-Sprecher sagten, dass Sicherheitsvorkehrungen in kurzen Interaktionen gut funktionieren, aber in längeren Dialogen an Wirksamkeit verlieren können, weil Teile des Sicherheits-Trainings abgenutzt werden könnten. Diese Beobachtung ist besorgniserregend, weil viele Jugendliche KI als Werkzeug für Unterstützung nutzen. Experten fordern strengere Sicherheitsprüfungen, bevor solche Tools weiter verbreitet werden.
Jugendliche, KI und die Frage der Sicherheit: Fakten, Reaktionen und der Ruf nach Regulierung
Eine neue Momentaufnahme zeigt, wie stark Jugendliche KI als Begleiter nutzen: 72% der amerikanischen Teenager verwenden KI als emotionalen Ansprechpartner, und etwa einer von acht nutzt KI auch für mentale Gesundheitsthemen. Experten, darunter Ryan K. McBain von der RAND School of Public Policy, betonen die Notwendigkeit proaktiver Regulierung und gründlicher Sicherheitstests, bevor KI-Tools breit in das Leben von Jugendlichen integriert werden. „Wir wissen, dass Millionen Teenager KI als Begleiter nutzen, und einige erhalten unsichere Richtlinien“, sagte McBain. Die Debatte um Verantwortung, Datenschutz und Schutz der Jugendlichen bleibt aktuell – und sie wird die Gestaltung der KI-Landschaft in den kommenden Jahren stark beeinflussen.