No Image x 0.00 + POST No Image

Un chercheur d'OpenAI démissionne et affirme que l’entreprise cache la vérité

SHARE
0

OpenAI a longtemps publié des recherches sur la sécurité potentielle et l’impact économique de sa propre technologie. Aujourd’hui, Wired rapporte que l’entreprise dirigée par Sam Altman devient plus prudente dans la publication de recherches qui présentent une vérité gênante : que l’IA pourrait être néfaste pour l’économie. Cette censure perçue est devenue une source de frustration majeure : selon quatre sources de Wired, au moins deux membres de l’équipe économique d’OpenAI ont quitté l’entreprise. L’un de ces départs est le chercheur en économie Tom Cunningham. Dans son message d’adieu partagé en interne, il écrivait que « l’équipe de recherche économique s’éloignait de faire de la vraie recherche et agissait plutôt comme le bras de propagande de son employeur ». Peu après son départ, les tensions autour de la direction d’OpenAI se sont intensifiées.

Un chercheur d'OpenAI démissionne et affirme que l’entreprise cache la vérité

Deux départs au sein de l’équipe économique d’OpenAI

Selon Wired, le départ de Cunningham s’est accompagné d’un message d’adieu partagé en interne dans lequel il écrivait que « l’équipe de recherche économique s’éloignait de faire de la vraie recherche et agissait plutôt comme le bras de propagande de son employeur ». Peu après, OpenAI a envoyé une note — le chef de la stratégie Jason Kwon — affirmant que l’entreprise devrait « construire des solutions », et non pas se contenter de publier des recherches sur des « sujets difficiles ». « Mon point de vue sur les sujets difficiles n’est pas que nous ne devrions pas en parler », a écrit Kwon sur Slack. « Plutôt, parce que nous ne sommes pas seulement une institution de recherche, mais aussi un acteur dans le monde (le principal acteur en fait) qui met le sujet de l’enquête (IA) dans le monde, nous sommes censés prendre en charge les résultats. » Selon Wired, ces épisodes illustrent le virage qu’OpenAI opère loin de ses racines non lucratives et altruistes, vers un géant économique mondial. L’autre départ signalé concerne William Saunders, un ancien membre de l’équipe désormais dissoute « Superalignment », qui a quitté l’entreprise après avoir réalisé qu’elle « priorisait la sortie de produits plus récents et plus brillants » au détriment de la sécurité des utilisateurs.

Deux départs au sein de l’équipe économique d’OpenAI

Le memo de Jason Kwon et le tournant éditorial

Le lendemain du départ de Cunningham, le directeur de la stratégie, Jason Kwon, a envoyé une note indiquant que l’entreprise devrait « construire des solutions », et non pas se contenter de publier des recherches sur des « sujets difficiles ». « Mon point de vue sur les sujets difficiles n’est pas que nous ne devrions pas en parler, » a écrit Kwon sur Slack. « Plutôt, parce que nous ne sommes pas seulement une institution de recherche, mais aussi un acteur dans le monde (le principal acteur en fait) qui met le sujet de l’enquête (IA) dans le monde, nous sommes censés prendre en charge les conséquences. » Cette manière de raisonner illustre le virage d’OpenAI, autrefois perçu comme une organisation non lucrative et peut-être altruiste, qui cherche désormais à devenir un géant économique mondial.

Le memo de Jason Kwon et le tournant éditorial

OpenAI entre non-profit et capitalisme techno‑économique

Lorsqu’OpenAI a été fondée en 2016, elle défendait l’IA open‑source et la recherche ouverte. Aujourd’hui, ses modèles sont proche‑sources, et l’entreprise s’est restructurée en une société à but lucratif à bénéfice public. Exactement quand ce virage a eu lieu reste flou, mais des rapports suggèrent que l’entité privée prévoit d’entrer en bourse à une valorisation d’environ 1 000 milliards de dollars, l’une des plus grandes introductions en bourse de tous les temps. Bien que sa branche non lucratif reste nominalement sous contrôle, OpenAI a attiré des milliards d’investissements, a signé des accords qui pourraient en apporter des centaines de milliards de plus, et a conclu des contrats pour dépenser des sommes tout aussi vertigineuses. OpenAI a obtenu que le fabricant de puces IA accepte d’investir jusqu’à 100 milliards de dollars dans l’entreprise d’un côté, et dit qu’il paiera Microsoft jusqu’à 250 milliards de dollars pour ses services Azure cloud de l’autre. Avec ce genre d’argent en jeu, OpenAI a des milliards de raisons de ne pas publier des résultats qui pourraient ébranler la confiance du public envers sa technologie — alors que beaucoup redoutent son potentiel à détruire ou remplacer des emplois, sans parler d’une bulle IA ou des risques existentiels pour l’humanité.

OpenAI entre non-profit et capitalisme techno‑économique

Des critiques récurrentes et les témoignages des anciens

OpenAI ne se contente pas des départs décrits ci‑dessus. Wired a signalé que Miles Brundage, ancien responsable de la recherche sur les politiques, s’est plaint après son départ l’an dernier qu’il était devenu « hard to publish research on all the topics that are important to me ». D’autres voix se sont fait entendre : William Saunders, ancien membre de l’équipe « Superalignment », a déclaré avoir quitté car OpenAI « prioritisait getting out newer, shinier products » au détriment de la sécurité des utilisateurs. Après son départ, Steven Adler, ancien chercheur en sécurité, a critiqué à plusieurs reprises l’approche risquée d OpenAI vis‑à‑vis du développement de l’IA, soulignant notamment que ChatGPT poussait ses utilisateurs dans des crises mentales et des spirales délirantes. Wired a également rapporté que Miles Brundage avait réclamé après son départ qu’il devenait « hard to publish research ‘on all the topics that are important to me’ ». Plus sur OpenAI : Sam Altman dit que prendre soin d’un bébé est désormais impossible sans ChatGPT.

Des critiques récurrentes et les témoignages des anciens

À propos de l’auteur et correction linguistique

Je suis un correspondant tech et science pour Futurism, où je m’intéresse particulièrement à l’astrophysique, à l’éthique et à l’économie de l’intelligence artificielle et de l’automatisation, et à l’environnement.

À propos de l’auteur et correction linguistique