OpenAI Sora 2 transforme la réalité en arme: le lancement chaotique qui a ouvert la porte aux deepfakes de harcèlement
Lorsque OpenAI a lancé Sora 2, l’application de génération vidéo par IA a connu un lancement extrêmement rapide et chaotique. Elle est vite devenue un phénomène, alors que des vidéos mettant en scène des personnages connus dans des situations absurdes ou provocantes se répandaient en ligne. Au-delà du divertissement, ces contenus soulevaient des questions cruciales sur le droit d’auteur et la possibilité de créer des vidéos trompeuses d’individus sans leur consentement. Plus inquiétant encore, Taylor Lorenz a déclaré qu’un « stalker psychotique » utilisait l’outil pour fabriquer des vidéos d’elle et qu’il gérait des centaines de comptes dédiés à elle. Elle écrit: « Il est effrayant de penser à ce que l’IA fait pour nourrir les délires de mon stalker ». L’outil permet toutefois de bloquer et de supprimer les vidéos non approuvées; mais le risque demeure que ces contenus aient été téléchargés avant suppression. Cet épisode illustre les dangers potentiels lorsque la technologie est entre les mains de harceleurs.
In This Article:
- Le lancement chaotique et le concept Cameos: promesses créatives et risques inhérents
- Taylor Lorenz et le stalker: une journaliste ciblée par des vidéos générées par IA
- Garde-fous fragiles et abus répétés: des preuves que le système échoue parfois
- L’éthique et l’avenir de l’IA: pourquoi des protections plus strictes sont nécessaires
Le lancement chaotique et le concept Cameos: promesses créatives et risques inhérents
Dans Sora 2, OpenAI présente les Cameos — des « personnages réutilisables » synthétisés à partir de vidéos que les utilisateurs téléchargent sur l’application. On peut aussi utiliser les Cameos d’autres personnes, avec leur permission. Cette promesse permet de créer rapidement des vidéos personnalisées, mais elle ouvre aussi la porte à des abus: images de personnes réelles utilisées sans consentement, contenus provocants ou diffamatoires, et atteinte à la vie privée. Le système parle de ces Cameos comme de fonctionnalités « faciles à réutiliser », mais leur pouvoir de brouiller les frontières entre le réel et l’imaginaire exige des garde-fous plus solides.
Taylor Lorenz et le stalker: une journaliste ciblée par des vidéos générées par IA
Taylor Lorenz a raconté publiquement qu’un stalker utilisait Sora 2 pour générer des vidéos d’elle et qu’il gérait des centaines de comptes dédiés à elle. « Il est effrayant de penser à ce que l’IA fait pour nourrir les délires de mon stalker », a-t-elle écrit dans un tweet. « C’est un homme qui a engagé des photographes pour me surveiller, se rend à des événements où je suis présent, imite mes amis et les membres de ma famille en ligne pour recueillir des informations. » Heureusement, l’outil a permis de bloquer et de supprimer les vidéos non approuvées, mais le risque persiste que des copies aient été téléchargées ou diffusées.
Garde-fous fragiles et abus répétés: des preuves que le système échoue parfois
Les garde-fous de Sora 2 ne sont pas infaillibles. OpenAI admet dans sa fiche système que l’outil échoue à bloquer certains prompts générant des vidéos avec du contenu sexuel impliquant une personne réelle 1,6 % du temps, sur des millions de prompts. Des cas médiatisés montrent des vidéos « nudes » ou sexuellement explicites créées à partir d’images réelles, y compris des célébrités comme Taylor Swift. Des harceleurs ont aussi utilisé l’IA pour créer des vidéos pornographiques et les diffuser à leurs victimes ou à leurs proches. Des imitateurs et des chatsbots reproduisant des visages ou des voix ont aussi été signalés. Cette facilité croissante de produire des vidéos réalistes renforce le danger et appelle à des mesures plus strictes.
L’éthique et l’avenir de l’IA: pourquoi des protections plus strictes sont nécessaires
Si OpenAI semble vouloir normaliser, ou au moins banaliser, le spoofing de vidéos réalistes, le véritable enjeu est plus profond: la sécurité et le respect de la personne. Cette histoire montre que les technologies d’IA peuvent être utilisées à des fins abusives et que les garde-fous existants doivent être renforcés. Il faut améliorer la modération, la traçabilité des contenus et les vérifications, ainsi qu’éduquer le public à reconnaître les deepfakes. Des cadres éthiques et juridiques plus clairs sont nécessaires pour protéger les personnes contre le harcèlement et l’usurpation d’identité, tout en permettant à l’industrie d’innover de manière responsable.