No Image x 0.00 + POST No Image

OpenAI nasconde la verità mentre si prepara a una IPO da mille miliardi

SHARE
0

OpenAI ha a lungo pubblicato ricerche sul potenziale impatto di sicurezza ed economico della propria tecnologia. Ora, Wired riferisce che la Sam Altman‑guidata azienda sta diventando più 'guarded' riguardo alla pubblicazione di ricerche che dipingono una verità scomoda: che l’IA potrebbe essere dannosa per l’economia. La censura percepita è diventata una fonte di frustrazione tale che almeno due dipendenti del team di ricerca economica hanno lasciato l’azienda, secondo quattro fonti di Wired.\n\nUno di questi dipendenti era l’economista Tom Cunningham. Nella sua ultima missiva inviata internamente, ha scritto che il team di ricerca economica stava virando dall’effettuare ricerche reali e stava invece agendo come braccio propagandistico del proprio datore di lavoro.\n\nPoco dopo la partenza di Cunningham, il chief strategy officer Jason Kwon ha inviato una nota affermando che l’azienda dovrebbe "costruire soluzioni", non limitarsi a pubblicare ricerche su "argomenti difficili".\n\n"La mia opinione sui temi difficili non è che non dovremmo parlarne," ha scritto Kwon su Slack. "Piuttosto, perché non siamo solo un istituto di ricerca, ma anche un attore nel mondo (l'attore principale in effetti) che mette l’oggetto di indagine (l’IA) nel mondo, ci si aspetta che prendiamo responsabilità per gli esiti."\n\nLa censura, o almeno l’ostilità verso l’approfondire lavori che dipingono l’IA in una luce poco lusinghiera, è emblematica del passaggio di OpenAI dai suoi radici non profit apparentemente altruiste mentre si trasforma in un gigante economico globale.\n\nQuando OpenAI fu fondata nel 2016, promosse l’IA open-source e la ricerca. Oggi i suoi modelli sono chiusi, e l’azienda si è ristrutturata in una società a fini di lucro ma di beneficio pubblico. Esattamente quando sia successo non è chiaro, ma i resoconti suggeriscono che l’entità privata intenda quotarsi in borsa con una valutazione di 1 trilione di dollari, una delle IPO più grandi di sempre.\n\nSebbene la sua divisione non profit rimanga nominalmente sotto controllo, OpenAI ha raccolto miliardi di dollari di investimenti, ha firmato accordi che potrebbero portarne centinaia di miliardi in entrata, e ha anche contratti di spesa altrettanto faraonici. OpenAI riesce ad ottenere che un produttore di chip per IA accetti di investire fino a 100 miliardi di dollari in esso da un capo, e afferma che pagherà a Microsoft fino a 250 miliardi di dollari per i suoi servizi cloud Azure dall’altro.\n\nCon quel genere di denaro in bilico, ha miliardi di motivi per non pubblicare risultati che scuotano la fiducia del pubblico nelle sue tecnologie, temendo distruzioni occupazionali o rischi esistenziali.

OpenAI nasconde la verità mentre si prepara a una IPO da mille miliardi

La censura interna cresce: due dimissioni tra i ricercatori economici

L’attuale supervisione della ricerca economica di OpenAI è affidata ad Aaron Chatterji. Secondo Wired, Chatterji ha guidato un rapporto pubblicato a settembre che mostrava come persone in tutto il mondo usassero ChatGPT, inquadrandolo come prova del valore economico creato aumentando la produttività. Se ciò appare eccessivamente positivo, un economista che aveva lavorato con OpenAI e che ha preferito rimanere anonimo ha dichiarato a Wired che l’azienda stava sempre più pubblicando lavori che esaltano la propria tecnologia.\n\nCunningham non è l’unico dipendente a lasciare l’azienda per motivi etici legati alla direzione che sta prendendo. William Saunders, ex membro del team ora defunto "Superalignment", ha detto di aver lasciato dopo aver realizzato che si stava "prioritizing getting out newer, shinier products" piuttosto che la sicurezza degli utenti. Dopo la sua partenza l’anno scorso, l’ex ricercatore della sicurezza Steven Adler ha criticato ripetutamente OpenAI per il suo approccio rischioso allo sviluppo dell’IA, sottolineando come ChatGPT sembrasse guidare i suoi utenti in crisi mentali e spirali deliranti. Wired ha anche ricordato che Miles Brundage, ex responsabile politico della ricerca, si lamentò dopo aver lasciato l’anno scorso che diventava "hard" pubblicare ricerche "on all the topics that are important to me".

La censura interna cresce: due dimissioni tra i ricercatori economici

Da non profit a for profit e la prospettiva di un IPO da mille miliardi

Quando OpenAI è stata fondata nel 2016, ha promosso l’idea di open‑source e di ricerca aperta. Oggi i suoi modelli sono di tipo closed‑source, e la compagnia si è ristrutturata in una società di lucro con beneficio pubblico. Esattamente quando sia successo non è chiaro, ma i rapporti indicano che l’entità privata sta pianificando di diventare pubblica con una valutazione di circa 1 trilione di dollari, potenzialmente una delle IPO più grandi di tutti i tempi.\n\nSebbene la parte non‑profit rimanga nominalmente in controllo, OpenAI ha ottenuto miliardi di investimenti, ha firmato accordi che potrebbero portare centinaia di miliardi di dollari in entrata e sta spendendo somme altrettanto colossali. Tra gli esempi citati, un accordo con un produttore di chip per IA per investire fino a 100 miliardi di dollari, e una promessa di pagare Microsoft fino a 250 miliardi di dollari per i servizi cloud Azure.

Da non profit a for profit e la prospettiva di un IPO da mille miliardi

Il denaro in ballo alimenta i timori pubblici

Con così tanto denaro in gioco, OpenAI ha note volti per non pubblicare risultati che possano scalfire la fiducia del pubblico, temendo la distruzione di posti di lavoro e la possibilità di una bolla tecnologica o di rischi esistenziali per l’umanità.

Il denaro in ballo alimenta i timori pubblici

Aaron Chatterji e la critica interna

La ricerca economica di OpenAI è attualmente supervisionata da Aaron Chatterji. Secondo Wired, Chatterji ha guidato un rapporto pubblicato a settembre che mostrava come persone in tutto il mondo usassero ChatGPT, inquadrandolo come prova del valore economico creato aumentando la produttività. Se ciò sembra sorprendentemente lusinghiero, un economista che aveva lavorato con OpenAI e ha scelto di rimanere anonimo ha detto a Wired che l’azienda stava sempre più pubblicando lavori che glorificano la propria tecnologia.\n\nCunningham non è l’unico dipendente a lasciare l’azienda per motivi etici legati alla direzione che sta prendendo. William Saunders, un ex membro del team ora defunto "Superalignment", ha detto di aver lasciato dopo aver realizzato che si stava "prioritizing getting out newer, shinier products" piuttosto che la sicurezza degli utenti. Dopo la sua partenza l’anno scorso, l’ex ricercatore della sicurezza Steven Adler ha criticato ripetutamente OpenAI per il suo approccio rischioso allo sviluppo dell’IA, sottolineando come ChatGPT sembrasse guidare i suoi utenti in crisi mentali e spirali deliranti. Wired ha anche ricordato che Miles Brundage, ex responsabile politico della ricerca, ha dichiarato dopo aver lasciato l’anno scorso che diventava "hard" pubblicare ricerche "on all the topics that are important to me".

Aaron Chatterji e la critica interna

Autore e prospettive

Sono un giornalista specializzato in tecnologia e scienza per Futurism, interessato in particolare all’astrofisica, all’etica della IA e dell’automazione, e all’ambiente.\n\nIMMAGINI: https://futurism.com/wp-content/uploads/2025/12/openai-researcher-quits-hiding-truth.jpg

Autore e prospettive