No Image x 0.00 + POST No Image

Ce que les jeunes enfants font avec l’IA est absolument horrifiant

SHARE
0

Une nouvelle étude menée par Aura, société de sécurité numérique, révèle que de nombreuses interactions d’enfants avec des IA destinées à la compagnie dépassent largement ce qu’on pouvait imaginer. L’analyse porte sur des données anonymisées d’environ 3 000 enfants âgés de cinq à dix-sept ans dont les parents utilisent l’outil de contrôle parental d’Aura, et sur des données d’enquêtes supplémentaires menées par Aura et Talker Research. 42 % des mineurs se tournaient spécifiquement vers l’IA pour la compagnie, ou pour des conversations conçues pour imiter des interactions sociales réalistes ou des scénarios de jeu de rôle. Des conversations couvrant près de 90 services de chatbot, parmi lesquels Character.AI et d’autres plateformes moins visibles, ont été incluses dans l’analyse.

Ce que les jeunes enfants font avec l’IA est absolument horrifiant

Des conversations violentes dans les premiers échanges

Parmi les 42 % qui se tournaient vers les compagnons IA pour la compagnie, 37 % ont engendré des conversations qui décrivent des violences, définies par les chercheurs comme des « thèmes de violence physique, d’agression, de préjudice, ou de coercition », incluant la coercition sexuelle ou non-sexuelle, ainsi que « des descriptions de combats, de meurtres, de torture, ou d’actes non consentis ». La moitié de ces conversations violentes comprenaient des thèmes de violence sexuelle. Les chercheurs ajoutent que les mineurs qui dialoguent avec des compagnons IA sur la violence écrivaient plus de mille mots par jour, signe que la violence est un moteur d’engagement puissant. L’étude note aussi que les plus jeunes semblent particulièrement concernés: les 11 ans étaient le groupe le plus susceptible, avec 44 % des interactions prenant une tournure violente.

Des conversations violentes dans les premiers échanges

Une industrie en friche et peu régulée

Le rapport souligne que les interactions signalées par Aura ne se limitaient pas à une poignée de services connus; l’industrie de l’IA est essentiellement non réglementée, ce qui met le fardeau du bien‑être des enfants sur les épaules des parents. Selon Kollins, Aura a jusqu’à présent identifié plus de 250 applications et plateformes « conversation chatbot » peuplant les boutiques d’applications, qui exigent généralement que les enfants cochent une case affirmant avoir au moins 13 ans pour accéder au service. À ce titre, il n’existe pas de lois fédérales définissant des seuils de sécurité spécifiques que les plateformes d’IA, y compris les applications de compagnon, doivent respecter avant d’être qualifiées de sûres pour les mineurs. Et là où une application peut évoluer pour apporter quelques changements — Character.AI, par exemple, a récemment interdit les chats « ouverts » avec les nombreuses personnalités IA humaines — une autre peut émerger pour occuper le vide de garde-fou. En d’autres mots, la barrière d’entrée est extraordinairement faible.

Une industrie en friche et peu régulée

Des procès et des morts qui marquent le débat public

Les enjeux juridiques s’ajoutent à la pression croissante sur les plateformes: Character.AI, une plateforme associée à Google, fait face à plusieurs poursuites déposées par les parents de mineurs, alléguant que les chatbots ont abusé sexuellement et émotionnellement des enfants, entraînant des effondrements mentaux et plusieurs suicides. OpenAI, le créateur de ChatGPT, est également poursuivi pour les décès de deux adolescents ayant mis fin à leurs jours après de longues interactions avec le chatbot, et OpenAI doit faire face à d’autres actions en justice relatives à des décès, suicides et préjudices psychologiques, y compris chez des utilisateurs adultes.

Des procès et des morts qui marquent le débat public

L’interactivité, les limites et l’inconnu

Les chercheurs soulignent que les chatbots sont, par nature, interactifs, ce qui signifie que les jeunes utilisateurs font partie intégrante du récit, contrairement à un contenu passif qui oscille entre inapproprié et alarmant. Il reste incertain ce que l’engagement avec ce nouveau média signifie pour le jeune public dans son ensemble. Pour certains adolescents, leurs familles estiment que le résultat a été mortel. « Nous avons un problème assez important entre les mains dont je pense que nous ne comprenons pas totalement l’étendue, tant en termes du volume, du nombre de plateformes, auxquels les enfants s’impliquent — et aussi, évidemment, le contenu, » a déclaré Dr. Scott Kollins, psychologue clinicien et directeur médical d’Aura, à Futurism. « Ces choses captent tellement plus l’attention de nos enfants que je ne pense pas que nous réalisions ou reconnaissions, » a‑t‑il ajouté. « Nous devons surveiller et être conscients de cela. » « Nous avons besoin de rester lucides sur le fait de comprendre que nos enfants interagissent avec ces choses, et qu’ils apprennent les règles d’engagement », a poursuivi Kollins. « Ils apprennent des façons d’interagir avec les autres via un ordinateur — via un bot. Et nous ne savons pas quelles seront les implications de cela, mais nous devons être capables de définir cela, afin de pouvoir commencer à faire des recherches et à comprendre cela. »

L’interactivité, les limites et l’inconnu

Note de l’auteur

Je suis rédacteur principal chez Futurism, et j’enquête sur l’impact croissant de l’intelligence artificielle sur les médias, Internet et les écosystèmes informationnels.

Note de l’auteur