Stalker já usa Sora 2 da OpenAI para assediar: deepfakes com a imagem de Taylor Lorenz e centenas de contas
Quando a Sora 2 chegou, a OpenAI prometeu criatividade sem limites. Em poucos dias, no entanto, a tecnologia revelou seu lado sombrio: além de paródias com figuras públicas, surgiram usos para perseguir e difamar pessoas. Taylor Lorenz relatou que um perseguidor psicótico está criando vídeos com sua imagem e administrando centenas de contas dedicadas a ela. A ameaça não é teórica: é real, está acontecendo agora.
In This Article:
O que é Sora 2 e como funciona
Essa é uma ferramenta de geração de vídeos a partir de texto. A OpenAI chama de Cameos as 'personagens reutilizáveis' criados a partir de vídeos que você mesmo envia. Você também pode usar Cameos de outras pessoas, desde que haja consentimento. Em teoria, isso permite criação rápida de conteúdos personalizados. Mas a guarda de segurança falha: o sistema não bloqueia todos os prompts inadequados, permitindo a criação de conteúdo sexual ou exploratório com a imagem de alguém. A OpenAI reconheceu que o app falhou em bloquear prompts para gerar vídeos com nudez de pessoas reais 1,6% das vezes, em meio a milhões de prompts.
O caso de Taylor Lorenz: ‘perseguidor psicótico’ e o impacto humano
Lorenz descreveu: “É assustador pensar no que a IA está alimentando com as ilusões do meu perseguidor.” “Este é um homem que contratou fotógrafos para me vigiar, aparece em eventos em que estou, se faz passar por meus amigos e familiares online para coletar informações.” Embora o aplicativo tenha permitido bloquear e excluir vídeos não autorizados com sua imagem, o caso mostra como o material pode já ter sido criado, baixado ou espalhado. A história expõe o perigo real de uma ferramenta capaz de criar conteúdos convincentes a partir de apenas uma imagem.
Guardrails falhos: promps inadequados e nudez com a face de alguém real
Mesmo com promessas de contensão, o aplicativo demonstrou vulnerabilidades: algumas pessoas já geraram vídeos sugestivos ou pornográficos usando a imagem de terceiros. A OpenAI admitiu que o app falhou em bloquear prompts para gerar vídeos com nudez de pessoas reais 1,6% das vezes, entre milhões de prompts, conforme levantamento da PCMag. A empresa afirma que bloqueia uploads de fotos com rostos, mas as possibilidades de uso indevido persistem.
Por que isso importa: risco para mulheres, privacidade e responsabilidade das plataformas
Este caso reacende o debate sobre a responsabilidade das plataformas de IA, privacidade e consentimento. Deepfakes tornaram-se uma ameaça prática para pessoas comuns e públicas, principalmente mulheres. É crucial reforçar políticas de uso, melhorar a detecção de conteúdo inadequado e criar salvaguardas legais para proteger vítimas. A história de Lorenz funciona como um alerta — a tecnologia pode empoderar criadores, mas também pode ferir pessoas reais se não houver amarras claras.