C'è una città che non compare nei comunicati stampa di OpenAI. Non è San Francisco, non è Seattle, non è Londra. È Nairobi.
Naftali Wambalo ha una laurea in matematica e due figli. Quando ha trovato lavoro nell'AI, pensava di aver trovato il futuro. Passava otto ore al giorno davanti a uno schermo a studiare immagini, disegnare rettangoli intorno a oggetti, etichettarli. Insegnava alle macchine a vedere. Era uno di quelli che nell'industria vengono chiamati "human in the loop" — un essere umano nel circuito, necessario per far funzionare i sistemi automatici.
Wambalo e altri lavoratori digitali kenioti erano impiegati da Sama, un'azienda americana di outsourcing che lavorava per Meta e OpenAI. Sama, con sede nella Bay Area californiana, impiegava oltre 3.000 lavoratori in Kenya.
Quello che Wambalo e i suoi colleghi non sapevano — o non potevano immaginare fino a quando non si sono trovati dentro — è che parte del loro lavoro consisteva nel leggere e classificare le peggiori cose che esistono su internet. Descrizioni dettagliate di abusi su minori. Immagini di violenza estrema. Contenuti di ogni tipo che un essere umano in condizioni normali non vorrebbe mai incontrare.
Un lavoratore keniota che era responsabile di leggere e classificare testi per OpenAI ha detto al Time che soffriva di visioni ricorrenti dopo aver letto la descrizione grafica di un uomo che abusava sessualmente di un bambino. "Era una tortura", ha detto. "Leggi questo genere di cose per tutta la settimana. Quando arrivi al venerdì, sei disturbato da quelle immagini."
Per questo lavoro, Wambalo e i suoi colleghi guadagnavano tra un dollaro e trentadue centesimi e due dollari l'ora.
Come funziona la catena
Per capire come sia possibile che aziende con valutazioni da centinaia di miliardi di dollari paghino i propri lavoratori meno di due dollari l'ora, bisogna capire come è strutturata la catena del subappalto nell'industria AI.
Le grandi aziende — OpenAI, Meta, Google, Microsoft — non assumono direttamente i lavoratori che etichettano i dati. Assumono aziende intermediarie, chiamate data annotation companies o content moderation firms. Queste aziende a loro volta assumono lavoratori locali, spesso tramite piattaforme di gig work, in paesi con basso costo del lavoro e normative meno stringenti.
OpenAI aveva concordato di pagare Sama 12,50 dollari l'ora per lavoratore — molto di più di quanto i lavoratori ricevevano effettivamente. Sama dice che quello che ha pagato è un salario equo per la regione.
Il gap è strutturale e deliberato. OpenAI paga 12,50 dollari. Sama trattiene la differenza, paga 2 dollari al lavoratore, e invoca la logica del "mercato locale." Il lavoratore non sa per quale azienda finale sta lavorando. Un'indagine ha trovato che i data labeler kenioti che lavoravano per la piattaforma Remotasks non sapevano che fosse una sussidiaria di Scale AI, un'azienda che fornisce dati alle grandi aziende tech.
La catena di subappalto serve esattamente a questo: creare abbastanza distanza legale tra il prodotto finale — ChatGPT, i modelli di sicurezza di Meta — e le condizioni in cui quel prodotto è stato costruito, da rendere praticamente impossibile qualsiasi responsabilità diretta.
La geografia del danno
Il Kenya non è un caso isolato. È il centro più visibile di un sistema globale.
Le Filippine, la Colombia, l'India, il Ghana. In tutti questi paesi ci sono lavoratori che classificano immagini, moderano contenuti, etichettano dati per addestrare modelli AI che saranno venduti in Europa e negli Stati Uniti. TikTok e OpenAI hanno subappaltato lavoro ad aziende in Kenya e Colombia, dove i lavoratori riportano salari di povertà, traumi psicologici e soppressione dei tentativi di sindacalizzazione in condizioni che non sarebbero tollerate secondo le leggi sul lavoro americane o europee.
In Kenya, i data worker guadagnano meno di 2 dollari l'ora, rispetto a più di 20 dollari negli Stati Uniti per lavoro equivalente.
Questa non è una conseguenza imprevista del mercato. È il modello. La differenza salariale tra Kenya e California non è un'anomalia da correggere — è la fonte del profitto. Se i data labeler di Nairobi fossero pagati come quelli di San Francisco, il margine scomparirebbe e il modello di business diventerebbe insostenibile.
Il trauma che non appare nei bilanci
Il problema non è solo economico. È psicologico — e documentato in modo sempre più preciso dalla ricerca indipendente.
Un'indagine dell'organizzazione Equidem, basata su interviste con 113 moderatori di contenuti e data labeler in Kenya, Ghana, Colombia e Filippine, ha documentato oltre 60 casi di grave danno alla salute mentale — inclusi disturbo post-traumatico da stress, depressione, insonnia, ansia e ideazione suicidaria. Alcuni lavoratori hanno riportato attacchi di panico, emicranie croniche e sintomi di trauma sessuale direttamente collegati ai contenuti grafici che erano obbligati a revisionare — spesso senza accesso al supporto per la salute mentale e sotto costante pressione per raggiungere obiettivi di produttività punitivi.
I lavoratori hanno anche segnalato straordinari non retribuiti, nessuno stipendio fisso e casi di aziende che trattengono i pagamenti.
C'è poi un elemento che rende la situazione ancora più opprimente: il silenzio contrattuale. La maggior parte di questi lavoratori è legalmente impossibilitata a parlare. In Colombia, 75 su 105 lavoratori avvicinati dagli investigatori hanno rifiutato le interviste. In Kenya, 68 su 110. La ragione schiacciante: la paura di violare i NDA — gli accordi di non divulgazione — che avevano firmato. I NDA non proteggono solo i dati proprietari: nascondono le condizioni di sfruttamento che fanno funzionare l'industria AI.
Una lavoratrice ha detto agli investigatori: "Ho firmato il NDA come tutti gli altri — non ci ho pensato due volte allora. Ma ora mi sembra una trappola. Vivo con gli incubi per i contenuti che ho visto, ma non posso nemmeno parlarne in terapia senza temere di violare il NDA."
La risposta dell'industria — e i suoi limiti
Quando le inchieste del Time e di CBS 60 Minutes hanno reso pubbliche le condizioni di lavoro in Kenya, Sama — l'azienda intermediaria — ha annullato il contratto con OpenAI anticipatamente. Non per ragioni etiche, ma perché l'esposizione mediatica era diventata un problema.
Sama ha annunciato che avrebbe interrotto il lavoro per OpenAI. Tuttavia, queste decisioni hanno lasciato molti lavoratori disoccupati o con salari più bassi su altri progetti.
Il caso di Remotasks — piattaforma di Scale AI — mostra lo stesso pattern. In marzo 2024, mentre i lavoratori iniziavano a lamentarsi pubblicamente, Remotasks ha chiuso abruptamente le operazioni in Kenya, escludendo tutti i lavoratori dai loro account. I lavoratori dicono che alcuni non hanno ricevuto il pagamento per il lavoro già svolto.
La risposta sistematica dell'industria alle critiche non è migliorare le condizioni. È spostare le operazioni o cambiare il nome della piattaforma. Il modello estrattivo rimane intatto.
Chi si organizza — e a quale costo
Nonostante tutto, qualcosa si muove.
In Kenya, i lavoratori hanno fondato la Data Labelers Association per combattere per migliori condizioni di lavoro, salari equi e supporto per la salute mentale. L'associazione collabora con l'African Content Moderators Union e con gruppi di ricerca indipendenti per documentare le condizioni di lavoro e fare pressione sul governo keniota.
Ma organizzarsi ha un costo. I lavoratori affrontano ritorsioni da parte delle aziende quando sollevano problemi. "Ogni volta che alziamo la voce, specialmente i 'taskers' che sono al livello più basso, veniamo licenziati automaticamente", ha detto un membro della Data Labelers Association.
In Turchia, i moderatori di contenuti che hanno tentato di sindacalizzarsi sono stati licenziati dall'azienda che forniva servizi di outsourcing a TikTok.
Il meccanismo di controllo è semplice ed efficace: i contratti non specificano nulla di più di una data di inizio e una data di fine. Non ci sono garanzie, non ci sono procedure di ricorso, non c'è protezione contro il licenziamento. E i NDA rendono impossibile anche solo descrivere pubblicamente quello che è successo.
Il paradosso strutturale
C'è un elemento di questa storia che vale la pena sottolineare con precisione, perché è il punto più rivelatore di come funziona davvero il sistema.
I lavoratori in Kenya non stanno semplicemente costruendo l'AI. Stanno costruendo la parte di sicurezza dell'AI — i filtri che impediscono a ChatGPT di generare contenuti violenti o abusivi. Sono loro che rendono il prodotto vendibile nei mercati europei e americani, dove esistono regolamentazioni sul contenuto e aspettative degli utenti.
In altre parole: le aziende AI usano il lavoro traumatizzante e sottopagato di lavoratori nei paesi del Sud globale per costruire i sistemi di sicurezza che permettono ai loro prodotti di essere presentati come sicuri, etici e responsabili ai consumatori del Nord globale.
Le condizioni di questo lavoro non sarebbero tollerate nei paesi in cui questi prodotti vengono venduti. Come ha detto la attivista keniota Nerima Wako-Ojiwa: "È terribile vedere quante aziende americane stiano facendo cose sbagliate qui. E sono cose che non farebbero a casa loro — quindi perché farle qui?"
Cosa sta cambiando — lentamente
L'Unione Europea ha pubblicato la Direttiva sul Lavoro nelle Piattaforme nel 2024, che introduce una presunzione di rapporto di lavoro subordinato per i lavoratori delle piattaforme e richiede trasparenza algoritmica. Non è specifica per il lavoro di moderazione dei contenuti esternalizzato, ma pone le basi per regolamentare il controllo algoritmico e la classificazione del lavoro.
Più di 140 ex moderatori di contenuti di Meta in Kenya hanno fatto causa all'azienda in un tribunale keniota, invocando le leggi locali su lavoro forzato, tratta di esseri umani e inflizione intenzionale di danno psicologico.
Ma i processi sono lenti, le aziende hanno risorse legali praticamente illimitate, e nel tempo in cui si aspetta una sentenza le operazioni possono essere spostate in un altro paese con leggi ancora meno stringenti.
Il conto che nessuno ha presentato
Quando si parla di AI si parla quasi sempre di futuro. Di lavori che spariranno, di lavori che nasceranno, di trasformazioni che nessuno riesce ancora a immaginare.
C'è però un presente che esiste già, ed è documentato con precisione da inchieste giornalistiche, report accademici, testimonianze di lavoratori. È il presente di Naftali Wambalo a Nairobi, di un moderatore in Colombia che non riesce più a dormire, di una lavoratrice in Kenya che non può parlarne nemmeno in terapia perché ha firmato un NDA.
Questo presente non appare nelle presentazioni agli investitori di OpenAI. Non appare nella testimonianza di Altman al Senato. Non appare nel dibattito italiano sull'AI, che si concentra quasi esclusivamente su regolamentazione, competitività europea e potenziali benefici tecnologici.
Appare nei report di Equidem, nelle inchieste del Time, nelle lettere aperte che cento lavoratori kenioti hanno scritto al presidente Biden chiedendo di mettere fine a quella che hanno chiamato "schiavitù moderna."
Il conto di questo presente non è stato ancora presentato a nessuno. Men che meno alle aziende che ne traggono profitto.
Fonti
Time, gennaio 2023 — inchiesta OpenAI e lavoratori kenioti Sama
CBS News / 60 Minutes, novembre 2024 — reportage Kenya, Scale AI, Remotasks
Equidem, "Scroll. Click. Suffer." — ricerca su 113 moderatori e data labeler
Brookings Institution, ottobre 2025 — analisi lavoro AI nel Sud globale
Jacobin, giugno 2025 — NDA, trauma e silenzio forzato
Computer Weekly, febbraio 2025 — Data Labelers Association Kenya
IHRB, novembre 2025 — analisi sistema di sfruttamento nel content moderation
Karen Hao, Empire of AI, Penguin Press, 2025
Medium / Qhala, giugno 2025 — chiusura Remotasks Kenya, struttura del sistema