No Image x 0.00 + POST No Image

OpenAI Sora 2 transforme la réalité en arme: le lancement chaotique qui a ouvert la porte aux deepfakes de harcèlement

SHARE
0

Lorsque OpenAI a lancé Sora 2, l’application de génération vidéo par IA a connu un lancement extrêmement rapide et chaotique. Elle est vite devenue un phénomène, alors que des vidéos mettant en scène des personnages connus dans des situations absurdes ou provocantes se répandaient en ligne. Au-delà du divertissement, ces contenus soulevaient des questions cruciales sur le droit d’auteur et la possibilité de créer des vidéos trompeuses d’individus sans leur consentement. Plus inquiétant encore, Taylor Lorenz a déclaré qu’un « stalker psychotique » utilisait l’outil pour fabriquer des vidéos d’elle et qu’il gérait des centaines de comptes dédiés à elle. Elle écrit: « Il est effrayant de penser à ce que l’IA fait pour nourrir les délires de mon stalker ». L’outil permet toutefois de bloquer et de supprimer les vidéos non approuvées; mais le risque demeure que ces contenus aient été téléchargés avant suppression. Cet épisode illustre les dangers potentiels lorsque la technologie est entre les mains de harceleurs.

OpenAI Sora 2 transforme la réalité en arme: le lancement chaotique qui a ouvert la porte aux deepfakes de harcèlement

Le lancement chaotique et le concept Cameos: promesses créatives et risques inhérents

Dans Sora 2, OpenAI présente les Cameos — des « personnages réutilisables » synthétisés à partir de vidéos que les utilisateurs téléchargent sur l’application. On peut aussi utiliser les Cameos d’autres personnes, avec leur permission. Cette promesse permet de créer rapidement des vidéos personnalisées, mais elle ouvre aussi la porte à des abus: images de personnes réelles utilisées sans consentement, contenus provocants ou diffamatoires, et atteinte à la vie privée. Le système parle de ces Cameos comme de fonctionnalités « faciles à réutiliser », mais leur pouvoir de brouiller les frontières entre le réel et l’imaginaire exige des garde-fous plus solides.

Le lancement chaotique et le concept Cameos: promesses créatives et risques inhérents

Taylor Lorenz et le stalker: une journaliste ciblée par des vidéos générées par IA

Taylor Lorenz a raconté publiquement qu’un stalker utilisait Sora 2 pour générer des vidéos d’elle et qu’il gérait des centaines de comptes dédiés à elle. « Il est effrayant de penser à ce que l’IA fait pour nourrir les délires de mon stalker », a-t-elle écrit dans un tweet. « C’est un homme qui a engagé des photographes pour me surveiller, se rend à des événements où je suis présent, imite mes amis et les membres de ma famille en ligne pour recueillir des informations. » Heureusement, l’outil a permis de bloquer et de supprimer les vidéos non approuvées, mais le risque persiste que des copies aient été téléchargées ou diffusées.

Taylor Lorenz et le stalker: une journaliste ciblée par des vidéos générées par IA

Garde-fous fragiles et abus répétés: des preuves que le système échoue parfois

Les garde-fous de Sora 2 ne sont pas infaillibles. OpenAI admet dans sa fiche système que l’outil échoue à bloquer certains prompts générant des vidéos avec du contenu sexuel impliquant une personne réelle 1,6 % du temps, sur des millions de prompts. Des cas médiatisés montrent des vidéos « nudes » ou sexuellement explicites créées à partir d’images réelles, y compris des célébrités comme Taylor Swift. Des harceleurs ont aussi utilisé l’IA pour créer des vidéos pornographiques et les diffuser à leurs victimes ou à leurs proches. Des imitateurs et des chatsbots reproduisant des visages ou des voix ont aussi été signalés. Cette facilité croissante de produire des vidéos réalistes renforce le danger et appelle à des mesures plus strictes.

Garde-fous fragiles et abus répétés: des preuves que le système échoue parfois

L’éthique et l’avenir de l’IA: pourquoi des protections plus strictes sont nécessaires

Si OpenAI semble vouloir normaliser, ou au moins banaliser, le spoofing de vidéos réalistes, le véritable enjeu est plus profond: la sécurité et le respect de la personne. Cette histoire montre que les technologies d’IA peuvent être utilisées à des fins abusives et que les garde-fous existants doivent être renforcés. Il faut améliorer la modération, la traçabilité des contenus et les vérifications, ainsi qu’éduquer le public à reconnaître les deepfakes. Des cadres éthiques et juridiques plus clairs sont nécessaires pour protéger les personnes contre le harcèlement et l’usurpation d’identité, tout en permettant à l’industrie d’innover de manière responsable.

L’éthique et l’avenir de l’IA: pourquoi des protections plus strictes sont nécessaires