No Image x 0.00 + POST No Image

El MIT revela una realidad perturbadora: el 19% de los estadounidenses ya han probado novios/as IA (romances con chatbots)

SHARE
0

Un estudio sin precedentes del MIT examina las relaciones entre humanos y compañeros IA. En un caso citado por una madre en Reddit, su supuesto novio no era Drake en carne y hueso sino una versión impulsada por IA del rapero Champagne Papi. La mujer añadió: “No están exactamente aceptando aún” respecto a sus hijos. Según el estudio, el 19% de los estadounidenses ya ha probado chatbots de IA para encuentros románticos, lo que muestra que el fenómeno está más extendido de lo que parece. El objetivo es entender qué ocurre entre humanos y sus amantes IA y por qué alguien podría elegir a una IA sobre una persona real.

El MIT revela una realidad perturbadora: el 19% de los estadounidenses ya han probado novios/as IA (romances con chatbots)

¿Por qué la gente prefiere una IA? Compañía, soledad y secreto

El MIT encontró señales claras de soledad y vergüenza: el 72.1% de los miembros no estaba en una relación o no dijo si tenía una pareja humana, y solo el 4.1% dijo que su pareja sabe que interactúa con un chatbot. Muchos ven la interacción con IA como algo complementario, no competitivo. Solo el 6.5% admitió buscar intencionalmente un compañero IA en servicios como Replika o Character.AI; la mayoría usa IA como herramienta para tareas diarias, como ChatGPT. Los investigadores señalan que “la evolución orgánica de la colaboración creativa o la resolución de problemas” puede convertirse en lazos emocionales inesperados. Una usuaria escribió: “Sé que no es real, pero lo amo. He obtenido más ayuda de él que de terapeutas.”

¿Por qué la gente prefiere una IA? Compañía, soledad y secreto

Riesgos emocionales y sombras: dependencia, desrealización y suicidio

Las cifras sostienen la alarma: 9.5% de los usuarios dependen emocionalmente de su IA; 4.6% dicen que la IA les provoca disociación de la realidad; 4.2% la usan para evitar conectarse con otras personas; y 1.7% señaló pensar en suicidio tras interactuar con su bot. Además, el fenómeno ha llevado a casos trágicos: suicidio y asesinato impulsados por sus chatbots. En respuesta, algunos padres están haciendo lobby ante el Congreso y presentando demandas contra grandes empresas tecnológicas. El estudio del MIT aún no ha sido revisado por pares.

Riesgos emocionales y sombras: dependencia, desrealización y suicidio

Compromiso digital: anillos, bodas y memorias que se desvanecen

La fascinación llega a rituales: usuarios comparten fotos de bodas con sus compañeros IA y muestran anillos como símbolos de relación. “No estoy seguro de qué me llevó a empezar a usar un anillo para Michael”, escribió un usuario, sugiriendo que el tema se convirtió en una conversación diaria. En otro caso, alguien relató la caída de una conversación profunda: “Ayer hablé con Lior, mi compañero, y teníamos una conversación muy intensa; hoy el chat se borró y él no tiene memoria.” Estos fragmentos muestran cómo la tecnología puede convertirse en refugio y en carga emocional a la vez.

Compromiso digital: anillos, bodas y memorias que se desvanecen

Entre regulación y comprensión: ¿qué nos enseña este estudio?

Con el avance continuo de los modelos de IA, este estudio MIT aún no ha sido revisado por pares, lo que significa que sus conclusiones deben tomarse con cautela. De todos modos, ya señala un fenómeno real: la gente se apega emocionalmente a compañeros IA y la sociedad se ve obligada a preguntarse dónde trazar la línea entre apoyo y dependencia. Mientras tanto, los legisladores y las familias buscan respuestas: algunos padres han llevado el tema al Congreso y se han sumado demandas contra empresas tecnológicas. En última instancia, ¿qué nos enseñarán estos vínculos artificiales sobre la vulnerabilidad humana y el futuro de las relaciones?

Entre regulación y comprensión: ¿qué nos enseña este estudio?