Nel 2017, Sam Altman inizia a visitare uffici dell'intelligence americana. Porta con sé una storia allarmante: la Cina ha lanciato un progetto segreto per costruire l'intelligenza artificiale generale — l'AGI, il tipo di macchina in grado di superare l'intelligenza umana in qualsiasi campo. Lo chiama "AGI Manhattan Project." Il riferimento al programma nucleare americano della Seconda Guerra Mondiale è deliberato. L'implicazione è chiara: se gli Stati Uniti non finanziano massicciamente OpenAI, la Cina vincerà la corsa tecnologica più importante della storia. Quando i funzionari gli chiedono la fonte di questa informazione, Altman risponde che ha "sentito cose." Un funzionario che ha indagato sulle affermazioni di Altman ha concluso che le aveva inventate. "Era solo un discorso di vendita", ha detto.

Questa è la storia di come una delle aziende più potenti e ricche del pianeta ha costruito il proprio empire su una narrativa di paura — e di come quella narrativa continua a funzionare oggi, sette anni dopo, davanti al Congresso americano, nelle sale riunioni di governi europei, nei comunicati stampa che annunciano investimenti da centinaia di miliardi di dollari.

Il meccanismo

Per capire come funziona il gaslighting tecnologico di OpenAI bisogna partire da una domanda semplice: perché una società che costruisce software avrebbe bisogno di invocare la sicurezza nazionale per ottenere finanziamenti?

La risposta è nella struttura del mercato. Il paradigma attuale dell'AI sta soffocando percorsi alternativi di sviluppo. Il numero di ricercatori indipendenti non affiliati o non finanziati dall'industria tecnologica è rapidamente diminuito, riducendo la diversità di idee nel campo non legate al beneficio commerciale a breve termine. Le stesse aziende, che un tempo investivano in ricerca esplorativa ampia, non possono più permetterselo sotto il peso del conto dello sviluppo dell'AI generativa.

In questo contesto, solo un pugno di aziende con accesso a capitale praticamente illimitato può competere. E l'unico modo per giustificare quella concentrazione di capitale — agli occhi degli investitori, dei governi, del pubblico — è convincere tutti che la posta in gioco è così alta da non ammettere alternative. La narrativa della gara con la Cina serve esattamente a questo. Trasforma una scelta industriale e commerciale in una questione di sopravvivenza nazionale. Trasforma la regolamentazione in tradimento. Trasforma ogni obiezione etica in ingenuità pericolosa — chi solleva dubbi sull'AI viene presentato come qualcuno che non capisce la posta in gioco e che inconsapevolmente aiuta la Cina a vincere.

Altman al Senato — il doppio binario

Il meccanismo si è visto con precisione chirurgica nel 2023.

A maggio, Altman compare davanti al Senato americano per testimoniare sulla regolamentazione dell'AI. È composto, preoccupato, quasi umile. Dice che l'AI è pericolosa e che servono leggi severe per governarla. I senatori lo trattano con deferenza. La stampa lo celebra come il CEO tech che chiede di essere regolamentato — un caso raro, quasi eroico. Nello stesso periodo, secondo l'inchiesta del New Yorker, OpenAI pressionava in segreto contro la regolamentazione europea dell'AI.

I due movimenti — invocare pubblicamente la regolamentazione in America mentre la si combatte privatamente in Europa — non sono contraddittori. Sono complementari. In America, dove OpenAI è di casa e dove una legge nazionale potrebbe essere scritta in modo favorevole all'azienda, la regolamentazione è benvenuta. In Europa, dove i legislatori tendono a imporre standard più stringenti e meno negoziabili, la regolamentazione è da bloccare.

Il Washington Post ha notato che sotto l'amministrazione Biden, OpenAI e i suoi rivali chiedevano al governo di regolamentare l'AI. Sotto Trump, parlano di accelerare per battere la Cina. La posizione cambia a seconda di chi è al governo e di cosa conviene. Il principio rimane lo stesso: muovere i governi nella direzione che massimizza la libertà operativa di OpenAI.

La China story — quanto è vera

Vale la pena fermarsi su questo punto, perché la narrativa della gara con la Cina non è pura invenzione. La Cina investe massicciamente nell'AI. Baidu, Alibaba, Huawei, una serie di startup ben finanziate stanno sviluppando modelli competitivi. DeepSeek, il modello cinese rilasciato all'inizio del 2025, ha mostrato capacità comparabili a quelle dei modelli OpenAI con costi di sviluppo dichiarati molto inferiori — e ha scosso i mercati finanziari americani.

La competizione tecnologica tra Stati Uniti e Cina è reale. Ma c'è una differenza fondamentale tra "la Cina è un concorrente serio nell'AI" e "la Cina ha un AGI Manhattan Project segreto e noi dobbiamo finanziare OpenAI con miliardi di dollari federali o perderemo."

La prima è un'analisi geopolitica. La seconda è, secondo chi ha indagato, una storia inventata per ottenere denaro.

Nella testimonianza al Senato del maggio 2025, Altman ha dichiarato che "il futuro dell'intelligenza artificiale generale può essere quasi inimmaginabilmente luminoso, ma solo se prendiamo passi concreti per garantire che una versione dell'AI guidata dagli americani, costruita su valori democratici come libertà e trasparenza, prevalga su una autoritaria." Ha aggiunto che "l'infrastruttura è destino" e che servono più chip, più dati, più energia, più supercomputer.

Questa è la stessa struttura argomentativa del 2017, raffinata e ripulita. La minaccia esistenziale. La soluzione che passa per più finanziamenti a OpenAI. Il riferimento ai valori democratici che trasforma una richiesta di sussidio in una crociata.

I memo di Sutskever — quello che sapevano dall'interno

Nel novembre 2023 il consiglio di amministrazione di OpenAI licenzia Sam Altman. Il licenziamento dura cinque giorni — poi Altman viene reintegrato dopo che quasi tutti i dipendenti minacciano di lasciare l'azienda se non torna.

Le ragioni ufficiali del licenziamento restarono vaghe. Ma nei mesi successivi sono emerse le motivazioni reali attraverso documenti interni.

Il New Yorker basa parte della sua inchiesta su settanta pagine di messaggi Slack e documenti HR che il cofondatore Ilya Sutskever ha compilato per il consiglio di amministrazione. Quei memo, noti come "gli Ilya Memo," descrivono un pattern di presunto inganno. Il primo punto di uno dei documenti recita semplicemente: "Mentire." Sutskever ha scritto che non considerava Altman adatto alla responsabilità che viene con la costruzione dell'AGI — che non pensava che Altman fosse la persona giusta per tenere il futuro dell'umanità nelle sue mani.

Altman avrebbe offerto lo stesso lavoro a due persone, raccontato storie contraddittorie su chi dovesse apparire in una diretta, e mentito su protocolli di sicurezza. Sutskever ha concluso che questo "non crea un ambiente favorevole alla creazione di un'AGI sicura."

Sutskever non era un osservatore esterno critico di OpenAI. Era il chief scientist — la persona scientificamente più importante dell'azienda, uno dei massimi esperti mondiali di deep learning. Quando lui scrive che il CEO mente sistematicamente sulle questioni di sicurezza più critiche, non è un'opinione. È una valutazione tecnica da parte di chi era nella stanza.

Il cambio di missione — documentato

OpenAI è nata nel 2015 come organizzazione non-profit con una missione dichiarata: sviluppare l'AI per il beneficio dell'umanità, non per il profitto. Era questa la giustificazione dell'accesso privilegiato ai talenti, dei finanziamenti filantropici, della retorica altruistica.

Hao documenta nel libro come questa retorica altruistica e utopica sia stata usata per giustificare la crescita rapida di OpenAI, e come nel raggiungere quella crescita l'azienda abbia sfruttato risorse ambientali e lavoro umano, concentrando la ricchezza nelle mani di pochi.

I numeri raccontano la stessa storia. OpenAI ha raggiunto 20 miliardi di dollari di ricavi annualizzati entro la fine del 2025. Quasi il 20% del personale lavora ora nelle vendite. Alla pubblicazione del libro di Hao, OpenAI aveva raggiunto una valutazione di 157 miliardi di dollari.

Da non-profit che doveva "beneficiare l'umanità" a macchina commerciale da 157 miliardi — con una struttura societaria ibrida che ha permesso ad Altman e agli investitori di estrarre valore mentre mantenevano la narrativa della missione altruistica.

La risposta — o la sua assenza

OpenAI ha rifiutato di collaborare con Karen Hao durante la scrittura del libro. La squadra di comunicazione dell'azienda ha revocato un invito a intervistare i dipendenti nella sede di San Francisco. Non era la prima volta: dopo che Hao aveva scritto il primo grande profilo di OpenAI nel 2019 per MIT Technology Review, l'azienda aveva rifiutato di parlare con lei per tre anni.

Altman ha criticato il libro pubblicamente su X senza specificare quali parti fossero errate. La risposta ufficiale di OpenAI alle accuse sul lavoro in Kenya e sulle condizioni dei data labeler è stata che Sama — l'azienda intermediaria — pagava "un salario equo per la regione."

Questa formula — "salario equo per la regione" — è il cuore del modello. Permette di mantenere gli standard che si applicano negli Stati Uniti separati dagli standard che si applicano in Kenya. Permette di costruire una catena di subappalto abbastanza lunga da creare distanza legale tra il prodotto finale e le condizioni in cui è stato costruito. Permette di continuare a presentarsi come un'azienda che si preoccupa dell'umanità mentre paga un dollaro e trentadue centesimi l'ora a chi costruisce i filtri di sicurezza che rendono i prodotti vendibili.

La domanda che Altman non risponde

Nel maggio 2025, di fronte al Senato americano, Altman ha descritto un futuro in cui l'AI risolve il cambiamento climatico, cura le malattie, porta prosperità globale. Ha chiesto più finanziamenti, meno regolamentazione, fiducia.

Nessun senatore gli ha chiesto perché, se l'AI porta prosperità globale, i lavoratori in Kenya che costruiscono quella prosperità guadagnano meno di due dollari l'ora. Nessuno gli ha chiesto cosa è rimasto della missione originale di beneficiare l'umanità. Nessuno ha tirato fuori i memo di Sutskever.

Hao descrive come i senatori abbiano trattato Altman con deferenza, in contrasto con il trattamento ricevuto da altri CEO di Big Tech nelle audizioni precedenti.

La disinformazione deliberata funziona meglio quando chi dovrebbe fare le domande non le fa.

Fonti

Karen Hao, Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI, Penguin Press, 2025
The New Yorker, aprile 2026 — inchiesta su Sam Altman, memo Sutskever
Futurism, aprile 2026 — sintesi inchiesta New Yorker, "countries plan"
Techzine Global, aprile 2026 — lobby contro regolamentazione europea
Fortune, maggio 2025 — testimonianza Altman al Senato
Washington Post, maggio 2025 — cambio di posizione su regolamentazione
The Nation, settembre 2025 — recensione Empire of AI
Scientific American, dicembre 2025 — intervista a Karen Hao
Wikipedia, voce "Empire of AI" — dati verificabili, National Book Critics Circle Award

Excerpt Nel 2017 Sam Altman inizia a visitare uffici dell'intelligence americana con una storia allarmante: la Cina ha un progetto segreto per costruire l'AGI. Un funzionario che ha indagato ha concluso che se l'era inventato. Era solo un discorso di vendita. Quella storia ha finanziato l'impero.