Trois mois pour nettoyer l’IA d’usage abusif du clonage vocal à la désinformation
Pour encadrer les services et applications d’IA, favoriser un développement sain et ordonné de l’industrie et protéger les droits des citoyens, récemment, l’Administration du cyberespace de Chine (CAC) a publié un avis et déployé à l’échelle nationale une action spéciale de trois mois intitulée Nettoyage et régulation des abus des technologies IA. Un responsable du CAC a déclaré que cette action spéciale se déroule en deux phases. La première phase renforce la gouvernance de l’IA à la source, nettoie et rectifie les applications IA qui enfreignent les règles, renforce la gestion des technologies de synthèse et des contenus et pousse les plateformes à améliorer leurs capacités de détection et de vérification. La seconde phase vise à éradiquer les problèmes de diffusion de rumeurs, d’informations fausses et de contenus pornographiques vulgaires, d’usurpation d’identité et d’activités de « troupes du net », et à procéder à un nettoyage ciblé des informations illégales et nuisibles et à des sanctions des comptes et plateformes concernés.
In This Article:
- Produits IA non conformes
- Formation et vente de tutoriels et produits IA illégaux
- Gestion des données d’entraînement insuffisante
- Mesures de sécurité insuffisantes
- Non application des marquages de contenu
- Risque de sécurité dans les domaines clés
- Utilisation de l’IA pour fabriquer et diffuser des rumeurs
- Utilisation de l’IA pour produire des informations fausses
- Utilisation de l’IA pour produire du contenu pornographique vulgaire
- Utilisation de l’IA pour usurper l’identité et commettre des actes illicites
- Utilisation de l’IA pour des campagnes de bots et water army
- Non-conformité des produits et services IA
- Atteinte aux droits des mineurs
- Conclusion et appel à l’action pour les autorités locales
Produits IA non conformes
Première catégorie: des produits IA génératifs fournissent des services de contenu au public, mais n’ont pas rempli les procédures d’enregistrement ou de dépôt des grands modèles. Ils proposent des fonctions anticonstitutionnelles telles que « déshabillage en un clic ». Sans autorisation ni consentement, ils clonent ou éditent les voix, les visages et d’autres caractéristiques biométriques d’autrui, violant ainsi la vie privée.
Formation et vente de tutoriels et produits IA illégaux
Deuxième catégorie: formation et vente de tutoriels et de produits IA illégaux. Formation à l’utilisation de produits IA illégaux pour fabriquer des vidéos de remplacement de visage ou des extraits sonores, etc. Vente de produits illégaux tels que des « synthétiseurs vocaux » et des « outils de changement de visage ». Marketing, promotion et publicité d’informations sur des IA illégales.
Gestion des données d’entraînement insuffisante
Troisième catégorie: gestion des données d’entraînement insuffisante. Utilisation d’informations portant atteinte aux droits de propriété intellectuelle et à la vie privée; utilisation de contenus récupérés sur Internet qui sont faux, invalides ou inexacts; utilisation de données provenant de sources illégales; absence d’un mécanisme de gestion des données d’entraînement et absence d’un nettoyage régulier des données non conformes.
Mesures de sécurité insuffisantes
Quatrième catégorie: mesures de sécurité faibles. Absence de dispositifs de modération du contenu et d’identification des intentions adaptés à l’échelle de l’activité; absence d’un mécanisme efficace de gestion des comptes violant les règles; absence d’évaluations de sécurité régulières; les plateformes sociales, lorsqu’elles intègrent des services d’IA via API, ne connaissent pas l’ampleur réelle et n’assurent pas un contrôle rigoureux du fonctionnement.
Non application des marquages de contenu
Cinquième catégorie: non application des obligations de marquage du contenu. Fournisseurs de services ne rajoutent pas de marquage implicite ou explicite pour les contenus profondément synthétiques, et n’offrent pas ou n’indiquent pas une fonction de marquage explicite. Les plateformes de diffusion n’ont pas mis en œuvre de mécanismes de surveillance et de détection des contenus générés, ce qui conduit à des informations fausses qui trompent le public.
Risque de sécurité dans les domaines clés
Sixième catégorie: risques de sécurité dans les domaines clés. Des produits IA enregistrés offrant des services de questions-réponses dans des domaines clés tels que la médecine, la finance et les mineurs n’ont pas mis en place des contrôles et des mesures de sécurité spécifiques au secteur, ce qui entraîne des problèmes tels que « IA qui prescrit », « incitation à l’investissement », « hallucinations IA », etc., qui trompent les étudiants et les patients et perturbent l’ordre du marché financier.
Utilisation de l’IA pour fabriquer et diffuser des rumeurs
Première catégorie: utiliser l’IA pour fabriquer et diffuser des rumeurs. Inventer ou déformer sans fondement des rumeurs liées à l’actualité politique, aux politiques publiques, au bien‑être social, aux relations internationales, aux événements imprévus, etc., ou spéculer et interpréter mal des grandes lignes politiques. En profitant d’événements soudains comme des incidents, des catastrophes, etc., on fabrique les causes, l’évolution et les détails. Se faire passer pour une conférence de presse officielle ou un reportage et diffuser des rumeurs. Utiliser l’IA pour générer un contenu biaisé qui guide malveillamment le public.
Utilisation de l’IA pour produire des informations fausses
Deuxième catégorie: utiliser l’IA pour produire et diffuser des informations inexactes. Assembler des images et des vidéos sans lien pertinent, les monter pour obtenir une information mêlant réalité et fiction; modifier de façon floue les éléments temporels, spatiaux et les personnes, afin de ressasser de vieilles informations. Produire et diffuser des contenus exagérés ou pseudo‑scientifiques touchant les domaines économiques, éducatifs, juridiques et de la santé; recourir à l’IA pour des prédictions divinatoires ou des superstitions pour tromper les internautes.
Utilisation de l’IA pour produire du contenu pornographique vulgaire
Troisième catégorie: utiliser l’IA pour produire et diffuser du contenu pornographique vulgaire ou des images et vidéos intimes d’autrui; contenus à caractère suggestif, dénudement ou provocations; scènes sanglantes et horrorifiques en images synthétiques; création et publication de « petits textes vulgaires », publications ou notes à connotation sexuelle évidente.
Utilisation de l’IA pour usurper l’identité et commettre des actes illicites
Quatrième catégorie: utiliser l’IA pour usurper l’identité d’autrui et commettre des actes illicites. Par le biais du changement de visage et du clonage vocal et d’autres technologies de falsification profonde, usurper des experts, entrepreneurs, célébrités et d’autres figures publiques; tromper les internautes et en tirer profit. Utiliser l’IA pour ridiculiser, dénigrer, déformer ou dénaturer des personnalités publiques ou historiques. Utiliser l’IA pour se faire passer pour des proches et commettre des arnaques en ligne. Utiliser de manière inappropriée l’IA pour « faire revivre les défunts » en utilisant les informations les concernant.
Utilisation de l’IA pour des campagnes de bots et water army
Cinquième catégorie: utiliser l’IA pour des activités de water army en ligne. Maintenir des comptes automatiquement, simuler des inscriptions et gérer des comptes sur les réseaux sociaux; créer des fermes de contenu IA ou exploiter des techniques de réécriture IA pour générer en masse des contenus de faible qualité et identiques; utiliser des logiciels de contrôle de groupes IA et des robots sociaux pour augmenter les likes, les commentaires et les partages et faire monter les sujets tendance.
Non-conformité des produits et services IA
Sixième catégorie: produits, services et applications IA non conformes. Produire et diffuser des sites et applications IA contrefaits ou déguisés; offrir des fonctionnalités illégales par des outils de création qui élargissent les sujets à partir de requêtes; des logiciels de social IA ou de conversation qui proposent des dialogues vulgaires; vendre, promouvoir et attirer du trafic vers des contenus générés ou des cours illégaux.
Atteinte aux droits des mineurs
Septième catégorie: atteinte aux droits des mineurs. Les applications IA incitent les mineurs à s’enfermer dans des usages et contiennent, en mode enfant, des contenus qui portent atteinte à leur santé mentale ou physique.
Conclusion et appel à l’action pour les autorités locales
Un responsable de l’Administration du cyberespace a souligné l’importance de cette action pour prévenir les risques d’abus de l’IA et protéger les droits des internautes. Il appelle les autorités locales à remplir leurs responsabilités de gestion locale, à superviser les plateformes afin de respecter les exigences de l’action, à améliorer les mécanismes de modération des contenus générés par l’IA et à renforcer les capacités de détection technique et la mise en œuvre des mesures correctives. Il appelle aussi à renforcer la diffusion des politiques liées à l’IA et l’éducation à la culture numérique de l’IA, à guider toutes les parties à comprendre et à utiliser correctement la technologie IA, et à renforcer le consensus sur la gouvernance.