Anthropic ha rifiutato di togliere i freni alle armi autonome. Il Pentagono l'ha messa in lista nera come se fosse Huawei. Microsoft l'ha difesa in tribunale. E nel frattempo, Claude veniva usato per bombardare l'Iran.
C'è una scena che riassume tutto quello che non va in questa storia.
Mentre l'inchiostro dell'ordine esecutivo di Trump era ancora fresco, i jet dell'Air Force americano erano già in rotta verso l'Iran. E i sistemi del Comando Centrale USA usavano Claude — il modello AI di Anthropic — per condurre valutazioni di intelligence, identificare bersagli e simulare scenari di battaglia in tempo reale.
Lo stesso Claude che il governo aveva appena vietato. Lo stesso Claude che aveva appena dichiarato "rischio per la sicurezza nazionale".
Benvenuti nella guerra dell'intelligenza artificiale. Non è una metafora.
Il contratto che ha fatto esplodere tutto
La storia inizia con una trattativa.
Il Pentagono e Anthropic stavano negoziando su come il modello Claude potesse essere usato dall'esercito americano. Il nodo centrale era che Anthropic si rifiutava di rimuovere i guardrail di sicurezza integrati nel modello, quelli che impedivano l'uso in sistemi d'arma autonomi o in operazioni di sorveglianza di massa.
Non è una posizione stravagante. È una posizione tecnica e filosofica precisa:
i modelli AI attuali non sono abbastanza affidabili per essere usati in armi completamente autonome — farlo metterebbe a rischio i soldati americani e i civili. E la sorveglianza di massa dei cittadini americani costituisce una violazione dei diritti fondamentali.
Il Pentagono non ha ceduto.
Le trattative sono collassate perché le due organizzazioni non riuscivano a trovare un accordo su come i modelli Claude potessero essere utilizzati: Anthropic chiedeva garanzie che i modelli non fossero usati per armi completamente autonome o sorveglianza di massa, mentre il DoD voleva accesso illimitato per tutti gli usi legali. Nessuno ha ceduto.
La risposta del Pentagono è stata brutale.
Il Segretario alla Difesa Pete Hegseth ha designato Anthropic un rischio per la sicurezza della catena di approvvigionamento — un'etichetta normalmente riservata ad avversari stranieri, non ad aziende tecnologiche americane. La mossa ha collocato Anthropic nella stessa categoria del gigante cinese Huawei.
Pensateci un momento. Un'azienda americana, fondata da americani, che costruisce AI negli Stati Uniti, viene trattata come un'entità nemica della nazione. Il suo unico crimine? Aver detto "no" all'uso delle proprie tecnologie per sorvegliare cittadini americani e per far sparare droni senza supervisione umana.
Chi ha guadagnato dal crollo di Anthropic
Qui entra in scena la domanda che i media mainstream si dimenticano sempre di fare: chi ci guadagna?
La risposta è cristallina.
Il CEO di OpenAI Sam Altman ha annunciato che la sua azienda aveva raggiunto un accordo con il Dipartimento della Difesa sull'uso dei propri modelli AI, poche ore dopo che il rivale Anthropic era stato escluso dall'amministrazione Trump.
Altman ha annunciato l'accordo di OpenAI con il DoD (Dipartimento della Difesa) poche ore dopo che Anthropic era stata messa in lista nera.
La tempistica è eloquente. Mentre Anthropic veniva punita per aver detto "no", OpenAI diceva "sì" — e raccoglieva il contratto.
Anthropic ha perseguito un approccio morale che le ha guadagnato molti sostenitori ma è fallito, mentre OpenAI ha perseguito un approccio pragmatico e legalmente più morbido nei confronti del Pentagono.
Il paradosso è che OpenAI dichiara di avere le stesse "linee rosse" di Anthropic su armi autonome e sorveglianza. Ma ha firmato lo stesso. La differenza?
Entrambe le aziende dicono di opporsi alla sorveglianza di massa e alle armi completamente autonome, ma Anthropic chiedeva divieti espliciti, mentre OpenAI permette che i suoi modelli siano usati per "qualsiasi scopo legale".
In pratica: la stessa promessa, ma senza le clausole che la rendono vincolante. E
un'assunzione che le agenzie federali non violeranno la legge è poca garanzia per chiunque ricordi che le pratiche di sorveglianza esposte da Edward Snowden erano state considerate legali dagli organi interni, e dichiarate illegali solo dopo lunghe battaglie legali.
Microsoft: il paradosso del gigante che difende il rivale del suo cavallo
E poi c'è Microsoft. La mossa più sorprendente di tutta questa storia.
Nonostante possieda il 27% di OpenAI, Microsoft ha sviluppato negli ultimi anni stretti rapporti con Anthropic, arrivando a firmare un accordo da 30 miliardi di dollari per servizi di cloud computing.
E quando il Pentagono ha messo Anthropic in lista nera,
Microsoft ha depositato un documento in tribunale a sostegno della causa di Anthropic, chiedendo di bloccare temporaneamente l'applicazione dell'etichetta di "rischio nella catena di approvvigionamento".
Perché? Non per altruismo.
Microsoft integra i prodotti di Anthropic nella tecnologia che fornisce direttamente all'esercito americano, il che significa che la designazione del Pentagono colpisce direttamente il business di Microsoft.
Il Pentagono si è dato sei mesi per eliminare i prodotti Anthropic dai propri sistemi interni, ma non ha offerto lo stesso periodo di transizione ai contractor esterni come Microsoft, che usano gli strumenti di Anthropic per fornire servizi all'esercito.
In altre parole: Microsoft non sta difendendo Anthropic per principio. Sta difendendo sé stessa. Ma lo fa con argomenti che — casualmente — sono anche quelli giusti.
Come ha scritto nel proprio documento legale: "L'uso di una designazione di rischio nella catena di approvvigionamento per risolvere una disputa contrattuale può produrre effetti economici gravi che non sono nell'interesse pubblico." E ha definito la direttiva del Pentagono "vaga e mal definita".
È la prima volta che una grande azienda tecnologica prende apertamente posizione contro l'amministrazione da quando Donald Trump è tornato alla Casa Bianca — e le implicazioni vanno ben oltre una singola disputa contrattuale.
Il precedente che spaventa tutti
Il vero tema di questa storia non è Anthropic. Non è Microsoft. Non è nemmeno il Pentagono.
Il vero tema è: *può il governo americano distruggere economicamente un'azienda privata perché ha espresso una posizione pubblica sull'etica dell'AI?*
Anthropic sta chiedendo al tribunale di rovesciare la designazione del Pentagono — tipicamente riservata ad avversari stranieri — che limita i contractor della difesa dall'usare i prodotti dell'azienda. E sostiene che il governo federale l'abbia punita per aver espresso un "punto di vista protetto" sulla sicurezza dell'AI.
Se il Pentagono può etichettare una delle principali aziende AI americane come minaccia alla catena di approvvigionamento per aver rifiutato un singolo contratto su basi etiche, ogni azienda tecnologica che lavora con il governo americano si trova esposta allo stesso rischio.
Il segnale di mercato, se la designazione reggesse, è chiaro: le aziende AI che si rifiutano di rimuovere i vincoli etici per l'uso militare affronteranno l'esclusione dagli appalti, mentre quelle disposte a offrire termini illimitati otterranno un vantaggio competitivo nel mercato della difesa.
E la coalizione che si è formata intorno ad Anthropic è inedita.
Un gruppo di 37 ricercatori e ingegneri di OpenAI e Google ha depositato un amicus brief a sostegno di Anthropic, sottolineando il crescente consenso che l'approccio del Pentagono rischia di minare la collaborazione tra il settore privato e l'esercito.
Come scrivono nel documento: "Questo tentativo di punire una delle principali aziende AI americane avrà indubbiamente conseguenze per la competitività industriale e scientifica degli Stati Uniti nel campo dell'intelligenza artificiale e oltre."
La domanda scomoda
C'è però un'ombra su tutta questa vicenda che nessuno vuole davvero affrontare.
Anthropic non è una startup idealista che costruisce chatbot per aiutare gli studenti.
Ha firmato un contratto da 200 milioni di dollari con il DoD in luglio, ed è stata la prima azienda AI a integrare i propri modelli nei flussi di lavoro militari su reti classificate.
Il Comando Centrale USA ha usato Claude di Anthropic per "valutazioni di intelligence, identificazione di bersagli e simulazione di scenari di battaglia" durante i raid sull'Iran.
Quindi la domanda è: Anthropic è davvero una vittima? O è un'azienda che voleva i soldi dei contratti militari, ma con dei limiti che il Pentagono ha ritenuto inaccettabili?
La risposta onesta è: entrambe le cose. Anthropic ha cercato di tracciare una linea — imperfetta, contestabile, ma reale — tra "AI per la difesa" e "AI per uccidere senza supervisione umana". Il Pentagono ha risposto cancellando quella linea e punendo chi l'aveva tracciata.
Se un'azienda insiste su limiti rigidi all'uso militare della propria tecnologia, il Pentagono può interpretarlo come una vulnerabilità operativa. L'intelligenza artificiale militare richiede flessibilità, ambiguità e, talvolta, una certa tolleranza per zone grigie etiche. Il risultato è una tensione quasi filosofica.
Conclusione: la guerra vera
Quello che sta accadendo non è una disputa commerciale. È la prima grande battaglia pubblica su chi decide le regole dell'AI bellica nel XXI secolo.
Da un lato c'è un'amministrazione che vuole strumenti senza limiti, controllati dallo Stato, usabili per qualsiasi scopo "legale" — in un momento in cui la definizione di "legale" viene riscritta ogni settimana. Dall'altro ci sono aziende private che hanno costruito le infrastrutture su cui quella stessa amministrazione combatte le sue guerre, e che ora cercano di porre dei paletti.
La domanda finale che nessuno ha il coraggio di formulare ad alta voce è questa: in un mondo in cui
l'AI è diventata profondamente integrata nella pianificazione ed esecuzione militare americana, in particolare nella valutazione dell'intelligence, nell'identificazione dei bersagli e nelle simulazioni operative
, chi deve avere l'ultima parola su cosa può fare una macchina che decide chi vive e chi muore?
Per ora, la risposta dell'amministrazione Trump è semplice: il governo. Sempre. Senza eccezioni. E chi non è d'accordo finisce in lista nera insieme a Huawei.