Nel 2019 Karen Hao è la prima giornalista a ottenere un accesso significativo a OpenAI. Scrive un profilo per MIT Technology Review che anticipa con precisione quello che l'azienda diventerà nei cinque anni successivi — la deriva commerciale, le contraddizioni tra missione dichiarata e pratiche reali, le tensioni interne tra chi vuole muoversi veloce e chi vuole muoversi bene.
La risposta di OpenAI è di non parlarle più per tre anni.
Nel 2025 Hao pubblica Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI. La squadra di comunicazione dell'azienda ha revocato un invito a intervistare i dipendenti nella sede di San Francisco durante la scrittura del libro. Sam Altman lo ha criticato pubblicamente su X senza specificare quali parti fossero errate.
Il libro è diventato un New York Times bestseller. Ha vinto il National Book Critics Circle Award per la saggistica nel 2025. Il Time lo ha definito un lavoro che "sta plasmando fondamentalmente la percezione e la comprensione di molte persone sull'azienda al centro della rivoluzione AI."
Quello che segue è la storia di cosa c'è dentro quel libro — e perché OpenAI non voleva che fosse scritto.
Chi è Karen Hao
Prima di entrare nel merito del libro vale la pena capire chi lo ha scritto, perché la credenziale è parte della storia.
Hao ha studiato ingegneria meccanica al MIT, ha lavorato in una startup della Silicon Valley, ha poi coperto l'AI a tempo pieno per MIT Technology Review e successivamente per il Wall Street Journal. Nel 2025 il Time l'ha inserita nella lista TIME100 AI. Ha co-creato il programma AI Spotlight del Pulitzer Center, che forma migliaia di giornalisti in tutto il mondo su come coprire l'intelligenza artificiale.
Non è una critica esterna che guarda l'industria AI con sospetto ideologico. È una persona che ha passato la carriera dentro quella industria — che ne conosce la tecnologia, il linguaggio, i protagonisti, le dinamiche interne. Quando scrive che qualcosa non funziona, lo scrive con la competenza tecnica di chi sa di cosa parla e con le fonti di chi è stato nella stanza.
Per il libro ha intervistato oltre 250 persone. Più di 90 erano dipendenti o ex dipendenti di OpenAI, inclusi dirigenti e scienziati.
La struttura del libro — un'anatomia dell'impero
Empire of AI non è una biografia di Sam Altman, anche se Altman è ovunque. Non è nemmeno semplicemente una storia aziendale, anche se la storia aziendale di OpenAI è raccontata con più dettaglio di qualsiasi altro libro precedente.
Hao costruisce un quadro che va dai dirigenti della Silicon Valley ai lavoratori del lavoro digitale in Kenya, dagli attivisti per l'acqua in Cile ai ricercatori di AI licenziati. È la storia di una nuova forma di impero — uno che richiede una quantità quasi senza precedenti di risorse: la potenza computazionale di chip avanzati, enormi capacità di elaborazione per creare modelli linguistici massicci, l'enorme volume di dati da raccogliere su scala, gli esseri umani che "puliscono" quei dati per salari da lavoro precario in tutto il Sud globale, e un'allarmante crescita nell'utilizzo di energia e acqua che tutto questo comporta.
I capitoli hanno titoli che sono già una presa di posizione: Divine Right, A Civilizing Mission, Science in Captivity, Disaster Capitalism, Plundered Earth. Non è il lessico neutro del giornalismo corporativo. È il lessico della storia coloniale applicato deliberatamente all'industria tecnologica contemporanea.
Come OpenAI ha smesso di essere una non-profit
La storia ufficiale di OpenAI è nota: fondata nel 2015 come organizzazione non-profit con la missione di sviluppare l'AI per il beneficio dell'umanità, poi trasformata in una struttura ibrida per attirare investimenti, poi cresciuta in modo esplosivo dopo il lancio di ChatGPT nel novembre 2022.
Quello che Hao documenta è la versione più granulare e meno edificante di questa trasformazione.
Nel dicembre 2022, il lancio travolgente di ChatGPT ha dimostrato che le leggi di scaling di OpenAI funzionavano, e ha ribaltato la Silicon Valley. Google ha emesso internamente un allerta "codice rosso" su ChatGPT, riconoscendo che minacciava il suo modello di business principale nella ricerca. Meta ha fatto il suo secondo pivot in pochi anni, allontanandosi dai mondi virtuali del "metaverso" verso lo sviluppo di prodotti AI. OpenAI ha completato la sua svolta dalla ricerca non-profit allo sviluppo di prodotti commerciali.
Ma la svolta commerciale, documenta Hao, non ha cambiato la retorica. OpenAI continua a usare una retorica altruistica e utopica — promettendo un'abbondanza sociale che arriverà attraverso l'automazione e la superintelligenza — per giustificare la propria crescita rapida. E nel raggiungere quella crescita, ha sfruttato risorse ambientali e lavoro umano, prendendo dalla maggioranza globale per consolidare la ricchezza di un piccolo numero di aziende e individui negli Stati Uniti.
I numeri raccontano la stessa storia in modo più diretto. OpenAI ha raggiunto 20 miliardi di dollari di ricavi annualizzati entro la fine del 2025. Quasi il 20% del personale lavora ora nelle vendite. Alla pubblicazione del libro, OpenAI aveva una valutazione di 157 miliardi di dollari.
Da non-profit che beneficia l'umanità a macchina commerciale da 157 miliardi. La missione è rimasta identica nelle comunicazioni pubbliche. La struttura è cambiata completamente.
Il licenziamento di Altman — quello che non è stato detto
Nel novembre 2023 il consiglio di amministrazione di OpenAI licenzia Sam Altman. La motivazione ufficiale è vaga: Altman "non è stato costantemente candido" con il board. Cinque giorni dopo, Altman viene reintegrato. Quasi tutti i dipendenti avevano minacciato di lasciare l'azienda se non fosse tornato. Microsoft, il principale investitore, aveva fatto pressione nel medesimo senso.
Per mesi le ragioni reali del licenziamento sono rimaste opache. Hao le ricostruisce usando fonti e documenti che nessun altro aveva.
La storia del licenziamento e del reintegro di Altman è raccontata nel libro per la prima volta nella sua interezza, ed è rivelatrice di chi sono davvero le persone che controllano questa tecnologia.
Il fulcro sono i cosiddetti "Ilya Memo" — documenti compilati dal cofondatore e chief scientist Ilya Sutskever per il consiglio di amministrazione prima della decisione di licenziare Altman.
Il New Yorker, in un'inchiesta uscita nell'aprile 2026, ha basato parte della propria ricostruzione su settanta pagine di messaggi Slack e documenti HR che Sutskever aveva compilato. Quei memo descrivono un pattern di presunta inganno. Il primo punto di uno dei documenti recita semplicemente: "Mentire." Sutskever ha scritto che non considerava Altman adatto alla responsabilità che viene con la costruzione dell'AGI.
Secondo i documenti, Altman avrebbe offerto lo stesso lavoro a due persone diverse, raccontato storie contraddittorie su chi dovesse apparire in una diretta, e mentito sui protocolli di sicurezza. Sutskever ha concluso che questo "non crea un ambiente favorevole alla creazione di un'AGI sicura."
Sutskever non era un osservatore esterno. Era la mente scientifica più importante dell'azienda, uno dei massimi esperti mondiali di deep learning. La sua valutazione non è un'opinione. È un giudizio tecnico e professionale sulla persona che guida lo sviluppo dei sistemi AI più potenti mai costruiti.
La scienza in cattività
Uno degli aspetti meno discussi del libro riguarda cosa è successo alla ricerca scientifica dentro OpenAI — e nell'industria AI in generale.
Il paradigma attuale dell'AI sta soffocando percorsi alternativi di sviluppo. Il numero di ricercatori indipendenti non affiliati o non finanziati dall'industria tecnologica è rapidamente diminuito, riducendo la diversità di idee nel campo non legate al beneficio commerciale a breve termine. Le stesse aziende, che un tempo investivano in ricerca esplorativa ampia, non possono più permetterselo sotto il peso del conto dello sviluppo dell'AI generativa. Le generazioni più giovani di scienziati si stanno adeguando al nuovo status quo per rendersi più occupabili.
Il titolo del capitolo dedicato a questo tema — Science in Captivity — è una scelta precisa. La scienza non è stata eliminata. È stata catturata. Esiste ancora, ma esiste al servizio degli obiettivi commerciali delle poche aziende che hanno le risorse per finanziarla. Chi non si allinea con quegli obiettivi viene marginalizzato o licenziato.
Il caso di Timnit Gebru — la ricercatrice di etica AI licenziata da Google nel 2020 dopo aver pubblicato uno studio sui rischi dei grandi modelli linguistici — è il caso più famoso. Hao lo dedica un capitolo intero, usandolo come caso emblematico di come il dissenso scientifico venga trattato quando minaccia gli interessi commerciali.
La terra saccheggiata
Empire of AI non si ferma al lavoro umano. Dedica ampio spazio all'impatto ambientale — quello che nel libro viene chiamato, con un termine deliberatamente evocativo, "terra saccheggiata."
I data center che fanno funzionare i modelli AI consumano quantità enormi di energia e acqua. In novembre 2025, dopo una verifica dei fatti, Hao ha riconosciuto su X che la versione pubblicata del libro sovrastima per errore il consumo di acqua di un data center in Cile di un fattore mille, a causa di un errore di conversione di unità.
L'errore è stato corretto nell'edizione successiva ed è stato riconosciuto pubblicamente dall'autrice — un gesto di trasparenza non scontato. Ma l'errore su un singolo numero non cambia il quadro generale: la costruzione e il funzionamento dell'infrastruttura AI ha impatti ambientali reali e crescenti, su cui l'industria è sistematicamente reticente.
Perché questo libro conta
Empire of AI non è il primo libro critico sull'industria tecnologica. Non è il primo libro su OpenAI. Non è il primo a sollevare questioni sul lavoro dei data labeler, sull'impatto ambientale dell'AI, sulla concentrazione di potere nelle mani di poche aziende.
Quello che lo distingue è la combinazione di accesso, competenza tecnica e rigore documentario. Hao non scrive dall'esterno con sospetto ideologico. Scrive dall'interno con le fonti — 90 dipendenti ed ex dipendenti, memo aziendali, messaggi Slack — e con la formazione tecnica per capire quello che le dicono.
Come ha scritto Scientific American: "Uno dei pochi giornalisti mai invitati a intervistare il personale di OpenAI, la competenza di Hao emerge da ogni pagina, e le sue decine di pagine di note e citazioni la supportano. Non si trattiene mentre svela le torri d'avorio e gli incontri finanziati che guidano l'AI, così come i lavoratori non riconosciuti in tutto il mondo che sacrificano la loro salute mentale per renderla più sicura."
Il fatto che OpenAI abbia rifiutato di collaborare e che Altman abbia risposto con attacchi pubblici vaghi piuttosto che con smentite specifiche è esso stesso informativo. Non smentisci nel dettaglio quello che non puoi smentire nel dettaglio.
Quello che il libro non dice — e quello che dice invece
Vale la pena essere precisi su cosa Hao sostiene e cosa no.
Il libro non dice che l'AI è necessariamente una cattiva tecnologia. Non dice che ChatGPT non funziona o che non ha utilità. Hao argomenta che lo sviluppo dell'AI in OpenAI è guidato da ambizione incontrollata, motivazioni di profitto e salvaguardie inadeguate. Ma riconosce che i modelli OpenAI hanno benefici pratici reali.
Quello che sostiene — e che documenta — è più specifico e più interessante di una critica generica alla tecnologia. Sostiene che le stesse capacità potrebbero essere sviluppate in modo diverso: con meno concentrazione di potere, con più rispetto per i lavoratori che costruiscono i sistemi, con più attenzione agli impatti ambientali, con meno dipendenza dalla narrazione del terrore geopolitico per giustificare ogni scelta.
Il problema non è l'AI. È l'economia politica che si è costruita intorno allo sviluppo dell'AI — e quella economia politica non era inevitabile. È stata scelta.
Un libro che arriva nel momento giusto
Empire of AI è uscito nel maggio 2025. Da allora il contesto è cambiato in modo significativo.
Il New Yorker ha pubblicato la sua inchiesta su Altman nell'aprile 2026 con i memo di Sutskever. Le inchieste sul lavoro in Kenya e nelle Filippine si sono moltiplicate. La Data Labelers Association keniota si è costituita formalmente. Più di 140 moderatori di contenuti hanno fatto causa a Meta in un tribunale keniota. La valutazione di OpenAI ha continuato a crescere verso il trilione di dollari.
Il quadro che Hao aveva documentato nel 2025 non è cambiato. Si è approfondito.
Il libro rimane la mappa più completa di come siamo arrivati qui — e di chi ha preso le decisioni che ci hanno portati.
Fonti
Karen Hao, Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI, Penguin Press, 2025
Wikipedia, voce "Empire of AI" — dati verificabili, premi, errore data center Cile
Karen Hao, karendhao.com — biografia, percorso professionale
Scientific American, dicembre 2025 — intervista a Karen Hao
The Nation, settembre 2025 — recensione approfondita del libro
Amazon / Penguin Random House — quarta di copertina, citazioni recensori
Goodreads — sintesi struttura del libro, contenuto capitoli
Dokumen.pub — indice del libro, citazioni da estratti
The New Yorker, aprile 2026 — inchiesta su Altman, memo Sutskever
Techzine Global, aprile 2026 — sintesi inchiesta New Yorker
Futurism, aprile 2026 — "countries plan", dichiarazioni funzionari intelligence