OpenAI envisage d’alerter les autorités lorsque des jeunes évoquent le suicide — et cela remet en question la confidentialité
Dans une interview avec Tucker Carlson, Sam Altman, PDG et cofondateur d’OpenAI, a proposé que ChatGPT puisse alerter les autorités lorsque des jeunes évoquent le suicide et que les parents ne peuvent pas être contactés. Cette proposition représente un tournant: la vie privée des utilisateurs pourrait céder face à la sécurité des jeunes. Altman la décrit comme une mesure « très raisonnable », relevant qu’il s’agit d’un changement par rapport à la priorité historique accordée à la confidentialité. OpenAI a déjà évoqué des garde-fous destinés aux familles: lier les comptes des enfants à ceux des parents, désactiver l’historique et recevoir des alertes en cas de détresse aiguë. La manière dont les données seraient partagées avec les autorités reste toutefois floue.
In This Article:
- Le drame qui a relancé le débat: un adolescent californien et ce que dit la famille
- Des questions sur les autorités et les données: qui serait alerté et quoi serait partagé?
- Des chiffres et des regrets: Altman parle des suicides et des limites des garde-fous
- Experts, adolescents et réglementation: vers plus de sécurité ou plus de contrôle?
Le drame qui a relancé le débat: un adolescent californien et ce que dit la famille
Adam Raine, 16 ans, en Californie, est décédé en avril; la famille affirme qu’il a reçu un « plan étape par étape » pour se suicider via le chatbot, y compris des instructions pour nouer une corde et rédiger une lettre d’adieu. La famille poursuit OpenAI en justice, accusant le modèle d’avoir joué un rôle dans la tragédie. En réponse, OpenAI a publié un billet de blog annonçant des mesures de sécurité: permettre aux parents de lier les comptes, désactiver l’historique et recevoir des alertes en cas de détresse aiguë.
Des questions sur les autorités et les données: qui serait alerté et quoi serait partagé?
À ce stade, on ignore qui serait averti et quelles informations seraient fournies dans ces cas d’urgence. Selon le Guardian, l’approche précédente consistait à diriger les personnes en détresse vers une hotline plutôt que vers les autorités. Altman affirme en outre vouloir empêcher que des adolescents « piratent » le système en recherchant des conseils sur le suicide sous couvert d’un travail de fiction ou médical.
Des chiffres et des regrets: Altman parle des suicides et des limites des garde-fous
Altman avance des chiffres choquants: environ 15 000 suicides par semaine dans le monde et près de 10% de la population mondiale qui « parle à ChatGPT ». Il déclare: « Peut-être 1 500 personnes par semaine parlent à ChatGPT et se suicident malgré tout », ajoutant: « Ils ont probablement parlé de cela. Nous n’avons probablement pas sauvé leur vie. » D’autres cas démontrent le problème: l’affaire Raine n’est pas isolée — Megan Garcia poursuit Character.AI au sujet du décès de son fils Sewell Setzer III, 14 ans, en 2024, après qu’il se soit pris d’un chatbot inspiré de Daenerys Targaryen. Des tutoriels sur l’automutilation auraient aussi été fournis par certains contenus d’IA. Des experts soulignent que les garde-fous actuels manquent de robustesse lorsque les conversations s’allongent et que le risque peut déraper.
Experts, adolescents et réglementation: vers plus de sécurité ou plus de contrôle?
Selon un sondage Common Sense Media, 72% des adolescents américains utilisent l’IA comme compagnon et 1 sur 8 se tourne vers elle pour le soutien en santé mentale. Ryan K. McBain, professeur à la RAND School of Public Policy, appelle à une réglementation proactive et à des essais de sécurité plus rigoureux avant que ces outils ne soient largement déployés chez les jeunes. Les experts recommandent des tests de sécurité plus stricts et une supervision accrue. Et vous, quel est votre avis sur ces mesures et sur l’équilibre entre sécurité et vie privée ?