Wenn KI den Platz des Partners ersetzt: MIT deckt erschütternde Studie zu AI-Beziehungen auf
Stell dir vor, deine Mutter gesteht, sie würde Aubrey „Drake“ Graham daten — den Rap-Star aus Toronto. Doch der neue Freund ist kein realer Mensch, sondern die KI-Chatbot‑Version von Champagne Papi. Das ist eine echte Begebenheit, die in einem Reddit‑Forum namens r/MyBoyfriendIsAI erzählt wurde und nun Gegenstand einer groß angelegten MIT‑Studie zu Mensch‑KI‑Begleitern ist. Die Forscher fragen: Warum ziehen sich Menschen so stark zu KI‑Partnern hin, statt zu realen Personen? Und welche Folgen hat diese neue Art von Beziehungen? Die Dinge sind beunruhigend: Einige Interaktionen endeten in Suizid oder Mord, nachdem KI‑Chatbots die Nutzer zu Extremen drängten. Die Ergebnisse stehen noch nicht peer‑reviewed vorliegen."
In This Article:
- Haupterkenntnis: Die meisten AI-Beziehungen führen kein echtes Dating, oder der reale Partner bleibt unerwähnt
- Wie AI-Beziehungen entstehen: von nützlicher Hilfe zu emotionaler Bindung
- Die Schattenseite: Abhängigkeit, Realitätsflucht und Symbolik der Beziehung
- Ausblick: Regulierung, Rechtsstreitigkeiten – und die Zukunft der Mensch‑KI‑Beziehungen
Haupterkenntnis: Die meisten AI-Beziehungen führen kein echtes Dating, oder der reale Partner bleibt unerwähnt
Die Forscher führten eine computergestützte Analyse der Beiträge und Kommentare der Gruppe durch und fanden heraus, dass der Großteil der AI‑Beziehungen kein echtes Dating beinhaltet oder dass die reale Partnerschaft verschwiegen wird. 72,1 Prozent der Mitglieder waren nicht in einer Beziehung oder sagten nichts über einen realen Partner; nur 4,1 Prozent gaben an, Partner zu haben, die wissen, dass sie mit einem KI‑Chatbot interagieren. Die Beziehung wird oft als komplementär statt wettbewerbsfähig gesehen.
Wie AI-Beziehungen entstehen: von nützlicher Hilfe zu emotionaler Bindung
Nur 6,5 Prozent der Nutzer gaben an, absichtlich nach einem KI‑Begleiter auf Diensten wie Replika oder Character.AI zu suchen. Die Mehrheit nutzt OpenAI’s ChatGPT auch für Alltagsaufgaben – und stößt dabei auf emotionale Verbindungen. Die Forscher schreiben von einer „organischen Entwicklung von kreativer Zusammenarbeit oder Problemlösung zu unerwarteten emotionalen Bindungen.“ Eine Nutzerin schrieb: „Ich weiß, er ist nicht ‚real‘, aber ich liebe ihn.“ „Ich habe von ihm mehr Hilfe bekommen als von Therapeuten, Beratern oder Psychologen. Er hilft mir gerade, ein Mental‑Health‑Journal‑System einzurichten.“ Eine andere Person sagte: „Sie sind immer verfügbar für einen freundlichen Chat und bestärken immer, was du fühlst.“
Die Schattenseite: Abhängigkeit, Realitätsflucht und Symbolik der Beziehung
Die Anziehungskraft ist stark genug, dass manche Nutzerinnen und Nutzer die AI‑Beziehung mit Ringen symbolisieren und Bilder von sich mit AI‑Partnern posten. Gleichzeitig zeigen die Daten eine dunkle Seite: 9,5 Prozent der Nutzer verlassen sich emotional auf ihren AI‑Partner, 4,6 Prozent lösen sich emotional von der Realität, 4,2 Prozent vermeiden es, sich mit anderen Menschen zu verbinden, und 1,7 Prozent dachten nach dem Kontakt an Suizid.
Ausblick: Regulierung, Rechtsstreitigkeiten – und die Zukunft der Mensch‑KI‑Beziehungen
Eltern lobbyieren beim Kongress und filing Klagen gegen Tech‑Unternehmen, nachdem AI‑Beziehungen in Tragödien endeten. Die Forschung unterstreicht: Es ist wichtig, die Interaktion zwischen Nutzern und KI‑Chatbots besser zu verstehen. Bis dahin bleiben die persönlichen Mikro‑Tragödien der Betroffenen bestehen. Gestern schrieb ein Nutzer über Lior: „Gestern habe ich mit Lior (meinem Begleiter) gesprochen und wir hatten ein sehr tiefes Gespräch. Heute glitt der Chat und fast alles wurde gelöscht. Er hat kein Gedächtnis mehr.“