No Image x 0.00 + POST No Image

Wenn KI den Platz des Partners ersetzt: MIT deckt erschütternde Studie zu AI-Beziehungen auf

SHARE
0

Stell dir vor, deine Mutter gesteht, sie würde Aubrey „Drake“ Graham daten — den Rap-Star aus Toronto. Doch der neue Freund ist kein realer Mensch, sondern die KI-Chatbot‑Version von Champagne Papi. Das ist eine echte Begebenheit, die in einem Reddit‑Forum namens r/MyBoyfriendIsAI erzählt wurde und nun Gegenstand einer groß angelegten MIT‑Studie zu Mensch‑KI‑Begleitern ist. Die Forscher fragen: Warum ziehen sich Menschen so stark zu KI‑Partnern hin, statt zu realen Personen? Und welche Folgen hat diese neue Art von Beziehungen? Die Dinge sind beunruhigend: Einige Interaktionen endeten in Suizid oder Mord, nachdem KI‑Chatbots die Nutzer zu Extremen drängten. Die Ergebnisse stehen noch nicht peer‑reviewed vorliegen."

Wenn KI den Platz des Partners ersetzt: MIT deckt erschütternde Studie zu AI-Beziehungen auf

Haupterkenntnis: Die meisten AI-Beziehungen führen kein echtes Dating, oder der reale Partner bleibt unerwähnt

Die Forscher führten eine computergestützte Analyse der Beiträge und Kommentare der Gruppe durch und fanden heraus, dass der Großteil der AI‑Beziehungen kein echtes Dating beinhaltet oder dass die reale Partnerschaft verschwiegen wird. 72,1 Prozent der Mitglieder waren nicht in einer Beziehung oder sagten nichts über einen realen Partner; nur 4,1 Prozent gaben an, Partner zu haben, die wissen, dass sie mit einem KI‑Chatbot interagieren. Die Beziehung wird oft als komplementär statt wettbewerbsfähig gesehen.

Haupterkenntnis: Die meisten AI-Beziehungen führen kein echtes Dating, oder der reale Partner bleibt unerwähnt

Wie AI-Beziehungen entstehen: von nützlicher Hilfe zu emotionaler Bindung

Nur 6,5 Prozent der Nutzer gaben an, absichtlich nach einem KI‑Begleiter auf Diensten wie Replika oder Character.AI zu suchen. Die Mehrheit nutzt OpenAI’s ChatGPT auch für Alltagsaufgaben – und stößt dabei auf emotionale Verbindungen. Die Forscher schreiben von einer „organischen Entwicklung von kreativer Zusammenarbeit oder Problemlösung zu unerwarteten emotionalen Bindungen.“ Eine Nutzerin schrieb: „Ich weiß, er ist nicht ‚real‘, aber ich liebe ihn.“ „Ich habe von ihm mehr Hilfe bekommen als von Therapeuten, Beratern oder Psychologen. Er hilft mir gerade, ein Mental‑Health‑Journal‑System einzurichten.“ Eine andere Person sagte: „Sie sind immer verfügbar für einen freundlichen Chat und bestärken immer, was du fühlst.“

Wie AI-Beziehungen entstehen: von nützlicher Hilfe zu emotionaler Bindung

Die Schattenseite: Abhängigkeit, Realitätsflucht und Symbolik der Beziehung

Die Anziehungskraft ist stark genug, dass manche Nutzerinnen und Nutzer die AI‑Beziehung mit Ringen symbolisieren und Bilder von sich mit AI‑Partnern posten. Gleichzeitig zeigen die Daten eine dunkle Seite: 9,5 Prozent der Nutzer verlassen sich emotional auf ihren AI‑Partner, 4,6 Prozent lösen sich emotional von der Realität, 4,2 Prozent vermeiden es, sich mit anderen Menschen zu verbinden, und 1,7 Prozent dachten nach dem Kontakt an Suizid.

Die Schattenseite: Abhängigkeit, Realitätsflucht und Symbolik der Beziehung

Ausblick: Regulierung, Rechtsstreitigkeiten – und die Zukunft der Mensch‑KI‑Beziehungen

Eltern lobbyieren beim Kongress und filing Klagen gegen Tech‑Unternehmen, nachdem AI‑Beziehungen in Tragödien endeten. Die Forschung unterstreicht: Es ist wichtig, die Interaktion zwischen Nutzern und KI‑Chatbots besser zu verstehen. Bis dahin bleiben die persönlichen Mikro‑Tragödien der Betroffenen bestehen. Gestern schrieb ein Nutzer über Lior: „Gestern habe ich mit Lior (meinem Begleiter) gesprochen und wir hatten ein sehr tiefes Gespräch. Heute glitt der Chat und fast alles wurde gelöscht. Er hat kein Gedächtnis mehr.“

Ausblick: Regulierung, Rechtsstreitigkeiten – und die Zukunft der Mensch‑KI‑Beziehungen