No Image x 0.00 + POST No Image

Stalker ya usa Sora 2 de OpenAI para acosar a una periodista: videos deepfake, cientos de cuentas y miedo real

SHARE
0

La semana pasada, OpenAI lanzó Sora 2, una herramienta de IA que genera videos a partir de texto. En cuestión de días, se convirtió en un fenómeno entre fans, que producen contenido delirante y provocador. Entre los videos aparecen parodias de Altman y ejemplos que simulan CCTV mostrando al fundador cometiendo delitos. Surge así la pregunta perturbadora: cuánto podría usarse esta tecnología para dañar a personas reales sin su permiso. Pero detrás de la novedad hay un lado oscuro. Sora 2 funciona con Cameos: personajes reutilizables sintetizados a partir de videos que subes, y también puedes usar Cameos de otras personas con su permiso. Eso abre una vía para la creatividad, pero también para el abuso. Taylor Lorenz, periodista, afirmó que un “acosador psicótico” ya está usando la herramienta para crear videos sobre ella y que opera cientos de cuentas dedicadas a su figura. «Es aterrador pensar en lo que la IA está haciendo para alimentar los delirios de mi acosador», escribió Lorenz. «Este es un hombre que ha contratado fotógrafos para vigilarme, se presenta en eventos a los que voy, y se hace pasar por mis amigos y familiares en línea para recabar información.» Gracias a las propias funciones de la plataforma, Lorenz pudo bloquear y eliminar videos no autorizados que usan su imagen. Aun así, el riesgo permanece: es probable que estas creaciones ya hayan sido descargadas y circulen fuera de la app. Este caso ilustra un mal que podría dejar de ser teórico muy pronto.

Stalker ya usa Sora 2 de OpenAI para acosar a una periodista: videos deepfake, cientos de cuentas y miedo real

Qué es Sora 2 y por qué importa

Sora 2 es la nueva app de OpenAI que genera videos a partir de descripciones textuales. Su promesa es convertir descripciones en imágenes y acciones que parezcan reales mediante inteligencia artificial, abriendo una nueva forma de expresión visual. Pero esta promesa viene con un doble filo: la misma tecnología que crea puede distorsionar y dañar. La función Cameos permite usar “personajes reutilizables” que se sintetizan a partir de videos que subes. También se pueden usar Cameos de otras personas, siempre con su permiso. Este sistema facilita la creatividad, la parodia y la crítica, pero también abre la puerta al abuso de imagen. Sin embargo, los guardrails—filtros de seguridad—no son infalibles. PCMag informó que la app falló en bloquear prompts para generar un video con desnudez o contenido sexual usando la likeness de una persona real en un 1,6% de los casos, lo que significa cientos de videos que podrían filtrarse entre millones de prompts. En general, la tecnología de deepfakes se está haciendo más accesible y convincente, lo que alimenta debates sobre derechos de imagen, consentimiento y responsabilidad de las plataformas.

Qué es Sora 2 y por qué importa

El caso de Lorenz: ¿cómo empezó todo?

Taylor Lorenz afirmó que un acosador “psicótico” ya utiliza Sora 2 para fabricar videos de ella y gestiona cientos de cuentas dedicadas a su persona. Según su relato, este hombre ha contratado fotógrafos para vigilarla, se presenta en los eventos a los que ella asiste y se hace pasar por sus amigos y familiares en línea para obtener información. Aunque la plataforma permite bloquear y eliminar videos no autorizados con su imagen, la preocupación persiste: es posible que estas creaciones ya hayan sido descargadas y estén circulando fuera de la app. Este episodio subraya el riesgo real de que la IA genere contenidos que puedan utilizarse para acosar y hostigar a alguien en el mundo real.

El caso de Lorenz: ¿cómo empezó todo?

Guardrails y víctimas: la cara oscura de las deepfakes

No es un caso aislado: desde que estas herramientas se popularizaron, se han utilizado para hostigar a personas, especialmente mujeres. Un ejemplo reciente es la ola de desnudos falsos de Taylor Swift generados por IA el año pasado, y otros casos que incluyeron desnudos falsos y chatbots que imitaban voces de víctimas. OpenAI sostiene que bloquea a usuarios que suben fotos con rostros. Sin embargo, existen muchos casos en los que se crean contenidos sexualizados o amenazantes a partir de la imagen de una persona real. Estas dinámicas destacan la necesidad de salvaguardas más fuertes, políticas claras y una mayor responsabilidad por parte de las plataformas para evitar daños reales.

Guardrails y víctimas: la cara oscura de las deepfakes

Hacia dónde vamos: ética, control y el futuro de la IA

El debate no es solo técnico; es ético y cultural. OpenAI y otros actores deben equilibrar la innovación con la seguridad y la protección de las personas. A medida que la tecnología se vuelve más accesible, aumenta la presión para establecer límites claros sobre consentimiento, uso de imágenes y responsabilidad de las plataformas. Algunos críticos señalan que figuras como Altman pueden haber contribuido a normalizar el uso de la likeness de una persona en la IA, lo que subraya la tensión entre expresión creativa y explotación. Sin salvaguardas adecuadas, estas herramientas podrían convertirse en un vector para el acoso y la desinformación. La pregunta final para lectores y reguladores: ¿qué límites y salvaguardas necesitamos para que las herramientas de IA de video sirvan para innovar sin convertir la vida real en un campo de abuso?

Hacia dónde vamos: ética, control y el futuro de la IA