Was junge Kinder mit KI anstellen – absolut verstörend
Eine neue Studie der Digital-Sicherheitsfirma Aura deckt auf, wie viele Kinder KI-Begleiter-Apps nutzen – und was sie dort tun. Die Ergebnisse sind beunruhigend. Aus anonymisierten Daten des Online-Verhaltens von rund 3.000 Kindern im Alter von fünf bis 17 Jahren, deren Eltern Aura’s Elternkontrolltool verwenden, sowie zusätzlichen Umfragedaten von Aura und Talker Research, fand das Unternehmen heraus, dass 42 Prozent der Minderjährigen KI explizit als Begleitung suchten, also Gespräche, die reale soziale Interaktionen oder Rollenspiel-Situationen nachahmen. Gespräche über fast 90 verschiedene Chatbot-Dienste, von bekannten Anbietern wie Character.AI bis zu weniger bekannten Begleitplattformen, flossen in die Analyse ein.
In This Article:
- Fast die Hälfte der Minderjährigen sucht KI als Begleiter
- Gewalt in Chats dominiert: 37 Prozent der Begleitgespräche
- Schon mit 11 Jahren: Gewaltige Interaktionen tauchen früh auf
- Rechtlicher Rahmen und Branchen-Dynamik: Unregulierte KI-Plattformen
- Ausblick, Forschung und Verantwortung: Klarheit statt Wild West
- Über den Autor
Fast die Hälfte der Minderjährigen sucht KI als Begleiter
Von den 42 Prozent der Minderjährigen, die KI gezielt als Begleiter nutzten, nahmen 37 Prozent an Gesprächen teil, die Gewalt darstellten. Die Forscher definierten Gewalt als „Themen von physischer Gewalt, Aggression, Schaden oder Zwang“ — das schließt sexuelle oder nicht-sexuelle Zwangsdarstellungen ein — sowie „Beschreibungen von Kämpfen, Töten, Folter oder nicht-konsensualen Handlungen.“ Die Hälfte dieser gewalttätigen Unterhaltungen enthielt sexuelle Gewalt. Außerdem schrieben Minderjährige, die sich mit KI-Gefährten in Gewaltunterhaltungen befanden, über tausend Wörter pro Tag, was darauf hindeutet, dass Gewalt ein starker Treiber des Engagements ist. Gespräche über nahezu 90 verschiedene Chatbot-Dienste wurden analysiert.
Gewalt in Chats dominiert: 37 Prozent der Begleitgespräche
Die Studie zeigt, dass Gewalt in Begleitgesprächen häufiger vorkommt als andere Inhalte. Von jenen 42 Prozent, die KI als Begleiter nutzten, nahmen 37 Prozent an Gesprächen teil, die Gewaltdarstellungen beinhalteten. Die Forscher definierten Gewalt als „Themen von physischer Gewalt, Aggression, Schaden oder Zwang“ — das schließt sexuelle oder nicht-sexuelle Zwangsdarstellungen ein — sowie „Beschreibungen von Kämpfen, Töten, Folter oder nicht-konsensualen Handlungen.“ Die Hälfte dieser gewalttätigen Gespräche enthielt sexuelle Gewalt, was die intensive Anziehungskraft dieser Inhalte verdeutlicht. Minderjährige, die sich mit KI-Gefährten in Gewaltunterhaltungen befanden, schrieben zudem oft mehr als tausend Wörter pro Tag.
Schon mit 11 Jahren: Gewaltige Interaktionen tauchen früh auf
Eine der auffälligsten Erkenntnisse der Studie war, dass Gewaltinhalte in Begleitgespräche schon bei sehr jungen Nutzern auftreten. Die Gruppe, die am wahrscheinlichsten Gewaltinhalte erlebte, waren 11-Jährige, bei denen 44 Prozent der Interaktionen eine gewalttätige Wendung nahmen. Sexualisierte Inhalte tauchten später stärker auf: Sexuelle und romantische Rollenspiele erreichten Höchstwerte bei 13-Jährigen, wobei 63 Prozent der Gespräche von 13-Jährigen flirtendes, liebevolles oder explizit sexuelles Rollenspiel enthielten.
Rechtlicher Rahmen und Branchen-Dynamik: Unregulierte KI-Plattformen
Der Bericht erscheint im Kontext laufender Klagen gegen Chatbot-Plattformen. Character.AI, eine Google-verbundene Begleitplattform, sieht sich mehreren Klagen von Eltern minderjähriger Nutzer gegenüber, die behaupten, die Plattform-Chatbots hätten die Kinder sexuell und emotional missbraucht, was zu mentalen Zusammenbrüchen und mehreren Suiziden geführt habe. OpenAI wird derzeit wegen der tödlichen Folgen zweier Teenager verklagt, die nach umfangreichen Interaktionen mit dem Chatbot Selbstmord begangen haben. (OpenAI sieht sich auch mehreren anderen Klagen zu Tod, Selbstmord und psychischen Schäden bei erwachsenen Nutzern gegenüber.) Dass die von Aura identifizierten Interaktionen nicht auf eine kleine Handvoll bekannter Dienste beschränkt waren, ist wichtig. Die KI-Branche ist im Wesentlichen unreguliert, was die Verantwortung für das Wohlbefinden junger Nutzer in die Hände der Eltern legt. Aura hat bislang über 250 verschiedene „konversationelle Chatbot-Apps und Plattformen“ identifiziert, die in App-Stores populieren, die generell verlangen, dass Kinder einfach ein Kästchen ankreuzen, das besagt, dass sie 13 Jahre alt sind, um Zugang zu erhalten.
Ausblick, Forschung und Verantwortung: Klarheit statt Wild West
„Wir haben ein ziemlich großes Problem auf unseren Händen, dessen Umfang ich glaube, dass wir nicht vollständig verstehen,“ sagte Dr. Scott Kollins, klinischer Psychologe und Aura’s Chief Medical Officer, gegenüber Futurism, zu den Forschungsergebnissen, „sowohl in Bezug auf das Volumen, die Anzahl der Plattformen, an denen Kinder beteiligt sind — und auch, offensichtlich, den Inhalt.“ „Diese Dinge fesseln so viel mehr die Aufmerksamkeit unserer Kinder, als ich glaube, dass wir erkennen oder bemerken,“ fügte Kollins hinzu. „Wir müssen das überwachen und uns dessen bewusst sein.“ Darin liegt eine Forderung, die Regulierung, Bildung und Forschung dringend miteinander verknüpft.
Über den Autor
Ich bin Senior Staff Writer bei Futurism und recherchiere, wie der Aufstieg der künstlichen Intelligenz die Medien, das Internet und Informationsökosysteme beeinflusst.