Chi controlla ciò che non si può vedere
Il Pentagono contro Anthropic è la prima guerra pubblica per il cuore dell’IA militare. Ma il vero scontro non è quello che sembra.
Caracas, 3 gennaio 2026. Forze speciali americane catturano Nicolás Maduro in un’operazione che i vertici militari descrivono come “successo tattico senza precedenti”. Poche ore dopo, il dettaglio comincia a filtrare: Claude, il modello di intelligenza artificiale di Anthropic, è stato parte dell’operazione. Non ha sparato. Non ha deciso. Ha letto flussi di dati classificati in tempo reale e ha restituito analisi decisionali ai comandi. Tramite Palantir.
È il tipo di notizia che dovrebbe fermare chi legge. Non per le implicazioni etiche sull’IA militare — quelle le trovate già elaborate su Wired, MIT Tech Review e ogni podcast tech degli ultimi tre anni. Ma per una domanda molto più semplice, e molto più inquietante: cosa ha fatto esattamente Claude a Caracas? Chi lo sa? Chi può verificarlo?
La risposta è: nessuno. Nemmeno Anthropic.

Anthropic e il pentagono
Questa è la storia che non viene raccontata. La narrativa ufficiale — un braccio di ferro etico tra un’azienda di San Francisco con velleità progressiste e un Pentagono sotto Hegseth che vuole strumenti senza limitazioni — è comprensibile, politicamente riconducibile a schemi noti, narrativamente pulita.
Ed è profondamente insufficiente.
Anthropic ha già integrato Claude in ambienti classificati tramite Palantir. Gli ambienti classificati, per definizione, non sono accessibili al produttore del modello. I log non esistono, o non sono condivisibili. L’audit è impossibile. I guardrail etici che Anthropic dichiara — niente sorveglianza di massa degli americani, niente armi autonome senza supervisione umana — vivono in documenti pubblici che non hanno modo di essere verificati nel momento che conta.
I guardrail etici che non si possono auditare non sono guardrail. Sono comunicati stampa.
Questo non è un problema di buona o cattiva fede. È un problema strutturale — quello che Frank Pasquale, nel suo studio sui sistemi algoritmici opachi, chiama accountability gap: la distanza tra la dichiarazione di responsabilità e la possibilità reale di esercitarla. Nei sistemi commerciali, quell’accountability è già fragile. Nei sistemi classificati, scompare del tutto. È la condizione di esistenza di qualsiasi tecnologia integrata in infrastrutture che il produttore non può osservare. Quando un modello entra in quegli ambienti, il produttore perde la capacità di vedere ciò che ha prodotto. Resta solo la fiducia nelle intenzioni del cliente — che in questo caso è il Dipartimento della Difesa di una superpotenza in guerra.
Venezuala, US defense e Anthropic
Un dirigente di Anthropic, nei giorni successivi al raid in Venezuela, pone domande a un dirigente di Palantir su come Claude sia stato impiegato nell’operazione. Il tono, secondo quanto riportato da Axios il 14 gennaio 2026, lascia intendere disapprovazione. Palantir lo riferisce al Pentagono. Il Pentagono esplode.
Pete Hegseth, Segretario della Difesa, è “vicino” a designare Anthropic come supply chain risk. Non è una misura disciplinare — è una misura sistemica: chiunque voglia fare affari con le forze armate americane dovrebbe rescindere ogni accordo con l’azienda. Un funzionario senior ha dichiarato, senza ambiguità: “Faremo in modo che paghino un prezzo per averci costretto a farlo.”
Huawei è nella lista dei supply chain risk. ZTE è nella lista. Le aziende sospettate di trasmettere dati a Pechino sono nella lista. Non le startup californiane con sede a San Francisco e una valutazione di mercato oltre i sessanta miliardi di dollari.
La diffusione di Claude
Quella valutazione non è un dettaglio decorativo. Otto delle dieci più grandi aziende americane usano Claude nei propri flussi di lavoro. Amazon e Alphabet hanno investito miliardi nell’azienda. La designazione come supply chain risk non colpirebbe solo Anthropic — colpirebbe il suo ecosistema.
Perdere il contratto diretto con il Dipartimento della Difesa non sarebbe un disastro finanziario. Perdere Amazon e Alphabet lo sarebbe. E il Pentagono lo sa.
Non è una disputa etica. È una leva economica.

IV
Il terzo protagonista di questa storia è quello che rimane nell’ombra, e non dovrebbe. Palantir non è un intermediario. Palantir è l’infrastruttura. È il layer che trasforma un modello linguistico in un nodo integrato nei sistemi di comando militare — gestisce i dati classificati, costruisce le interfacce operative, definisce i contesti di deployment. Claude dentro Palantir non è Claude. È un motore di inferenza inserito in un’architettura di cui Anthropic non vede né comprende l’interezza.
Questa struttura ha un nome preciso nella teoria delle organizzazioni: principal-agent problem a cascata. In una catena semplice, chi commissiona (il principal) e chi esegue (l’agent) hanno interessi che possono divergere, ma almeno si vedono. Nella catena Anthropic → Palantir → Dipartimento della Difesa, ci sono tre livelli di delega. Il produttore del modello non vede il sistema di deployment. Il sistema di deployment non risponde al produttore. Il cliente finale — l’unico che ha visibilità sull’uso reale — è classificato per definizione. La responsabilità non si concentra su nessuno. Si dissolve nell’architettura.
E Palantir ha già scelto da che parte stare. Ha riportato la conversazione del dirigente Anthropic al Pentagono. Ha alimentato la crisi. Ha tutto l’interesse strategico a che il modello integrato nei propri sistemi non abbia condizioni d’uso imposte dall’esterno — e ancora di più a che i concorrenti che aspirano a entrare nei sistemi classificati capiscano cosa li aspetta se proveranno a porre limiti simili.
Palantir non è il terzo incomodo. Palantir è il campo di battaglia.
V
Gli altri giocatori aspettano. OpenAI ha già una versione personalizzata di ChatGPT su GenAI.mil, la piattaforma enterprise usata da circa tre milioni di militari e civili del Dipartimento. Google Gemini e xAI di Musk sono già presenti sulla stessa piattaforma. Tutti e tre hanno accettato di rimuovere i guardrail per l’uso nei sistemi non classificati. Tutti e tre stanno trattando per l’accesso ai sistemi classificati. Un funzionario senior del Pentagono ha dichiarato di essere “sicuro” che accetteranno lo standard “tutti gli usi leciti”.
Dario Amodei, in un’intervista sul podcast del New York Times, ha detto che “qualcuno deve tenere il dito sul pulsante dello sciame di droni” e che quella supervisione oggi non esiste. È la formulazione esatta di un concetto che il dibattito internazionale sui sistemi d’arma autonomi discute da un decennio: il meaningful human control. Paul Scharre, in Army of None (2018), lo definisce come la condizione in cui il supervisore comprende il sistema abbastanza da poter intervenire in modo consapevole — non solo formalmente presente nella catena di comando, ma cognitivamente e tecnicamente attrezzato a valutare ciò che il sistema sta facendo.
La domanda che Scharre pone — e che Amodei non pone — è questa: una supervisione esercitata su un sistema opaco, integrato in architetture classificate che il supervisore non può osservare, attraverso un intermediario che ti ha già segnalato al cliente, conta come controllo? O è la forma più sofisticata della sua assenza?
Tenere il dito sul pulsante è impossibile se non sai dove si trova il pulsante.
VI
C’è una lettura di questa storia che circola tra i commentatori più sofisticati: Anthropic rappresenterebbe una linea di resistenza genuina all’integrazione incontrollata dell’IA nei sistemi militari. Che la sua posizione sui guardrail sia una scelta di principio. Che sia, in qualche senso, una buona notizia.
È una lettura che illumina qualcosa di reale. Ed è incompleta nella misura in cui si ferma prima dello strato strutturale.
Anthropic ha già venduto accesso ai sistemi classificati tramite Palantir. Lo ha fatto prima che questa crisi emergesse. Lo ha fatto senza comunicarlo pubblicamente con la stessa enfasi con cui comunica i propri impegni sulla sicurezza. Il dibattito attuale non riguarda se integrare l’IA nelle strutture di comando militari. Riguarda le condizioni contrattuali di quella integrazione. I guardrail etici, in questo contesto, sono una posizione negoziale — non un limite invalicabile.
Questo non rende Anthropic ipocrita. Rende la situazione molto più complicata di come viene raccontata. Le aziende che costruiscono l’IA più capace al mondo si trovano in una posizione senza precedenti: i loro prodotti diventano infrastruttura critica prima ancora di essere prodotti maturi. Non hanno potere di veto sull’uso che ne viene fatto una volta integrati nei sistemi di una superpotenza. Hanno solo la possibilità di negoziare le condizioni di ingresso.
E nel momento in cui negoziano, sono già dentro.
Le democrazie occidentali si raccontano come sistemi che combattono l’autoritarismo perché i loro strumenti di potere sono vincolati a regole trasparenti e verificabili. È la narrazione che fonda la legittimità dell’ordine liberale. La domanda che questa storia porta con sé è semplice: quando lo strumento di comando non è verificabile nemmeno da chi lo ha costruito, quando i guardrail etici esistono solo nei documenti pubblici e non nei log classificati, quando il produttore del modello apprende come è stato usato dalla stessa azienda che lo ha segnalato al cliente — cosa rimane di quella distinzione?
Non è una domanda retorica. È la domanda a cui le prossime settimane di trattative tra Anthropic e il Pentagono non daranno risposta.
Perché la risposta non vive nei contratti.







