
Il protagonista è Claude, il modello sviluppato da Anthropic.
Il 27 febbraio 2026 il Pentagono ha inserito l'azienda in una lista nera riservata, fino a quel momento, a Kaspersky, Huawei e fornitori legati a potenze rivali. La formula ufficiale: "rischio per la catena di approvvigionamento della sicurezza nazionale", ai sensi del 10 U.S.C. § 3252 — una norma pensata per il sabotaggio straniero.
Mai usata prima contro un'azienda americana.
Il motivo? Anthropic ha rifiutato di eliminare due clausole dal proprio contratto da 200 milioni di dollari con il Dipartimento della Difesa. La prima vietava l'uso di Claude per la sorveglianza di massa dei cittadini americani. La seconda ne vietava l'impiego in armi completamente autonome senza supervisione umana.
Il 26 febbraio, il CEO Dario Amodei aveva scritto:
"Anche le armi completamente autonome potrebbero rivelarsi cruciali per la nostra difesa nazionale. Ma oggi i sistemi AI di frontiera non sono semplicemente abbastanza affidabili per alimentarle. Non forniremo consapevolmente un prodotto che mette a rischio i combattenti americani e i civili."
Il giorno dopo la blacklist, gli Stati Uniti hanno avviato gli attacchi aerei contro l'Iran nell'ambito dell'operazione Epic Fury.
E Claude era ancora lì.
Attivo nei sistemi militari classificati, destinato a restarci per mesi grazie a una finestra di rimozione di 180 giorni prevista dalla designazione stessa. Secondo diverse ricostruzioni giornalistiche, il sistema ha contribuito alla classificazione e alla selezione degli obiettivi militari.
Il CENTCOM ha confermato l'impiego di "strumenti AI avanzati." La CIO del Pentagono, Kirsten Davies, ha dichiarato davanti al Senato:
"L'uso del sistema è attivo in questo momento."
Indispensabile e pericoloso. Stesso sistema. Stessa settimana.
Questa non è solo una storia su un contratto andato storto.
La domanda senza proprietario
È la storia di una domanda che oggi nessuna istituzione al mondo ha il diritto formale di risolvere:
Chi decide cosa può fare un sistema di intelligenza artificiale?
L'azienda che l'ha costruito? Il governo che l'ha comprato? Il parlamento? Un trattato internazionale? Nessuno?
Nella pratica, la risposta è molto meno nobile di quanto sembri:
Dipende dal contratto.
Caso per caso. Clausola per clausola. Negoziazione per negoziazione.
Senza trasparenza, senza precedenti vincolanti, senza che i cittadini abbiano voce in capitolo.
Il caso Anthropic-Pentagono ha semplicemente reso visibile ciò che fino a ieri restava nell'ombra.
Il costruttore dice: “non è pronto”
L'argomento di Anthropic è tecnico prima ancora che etico.
Un sistema AI ha tassi di errore misurabili. Se quei tassi sono incompatibili con una certa applicazione — per esempio armi che selezionano e ingaggiano obiettivi senza intervento umano — il produttore ha una responsabilità ingegneristica nel dirlo.
Se Boeing comunicasse al Pentagono che un velivolo non è certificato per un certo profilo di missione, la risposta normale sarebbe una revisione tecnica. Non una lista nera.
Anthropic ha fatto l'equivalente, in chiave AI.
Ma la storia non si ferma qui.
Boeing non farebbe coincidere una comunicazione tecnica con la scadenza di un ultimatum politico. Non la presenterebbe come una battaglia per i "valori democratici." E difficilmente vedrebbe il proprio prodotto balzare al primo posto dell'App Store il giorno dopo.
Inoltre, i limiti dichiarati da Anthropic sono selettivi, come emerge dalle dichiarazioni giurate depositate nel contenzioso federale. L'azienda accetta l'uso di Claude per l'intelligence straniera. Accetta sistemi parzialmente autonomi. Il rifiuto riguarda due linee precise:
Sorveglianza domestica di massa
Piena autonomia letale senza supervisione umana
Non è un rifiuto dell'uso militare. È un rifiuto calibrato.
Il governo dice: "decidiamo noi"
La posizione del Pentagono ha una logica speculare.
In una democrazia, le operazioni militari sono autorizzate dal Congresso, dirette dal Presidente e sottoposte al controllo giudiziario. Lo standard richiesto — "any lawful use" — significa: qualsiasi uso consentito dalla legge vigente.
Il memorandum strategico del 9 gennaio 2026 ha formalizzato questa impostazione.
Chi ha accettato, è entrato.
OpenAI ha firmato un contratto classificato poche ore dopo la blacklist di Anthropic. xAI aveva già firmato il 23 febbraio.
La differenza non è nel principio. Entrambe dichiarano limiti.
La differenza è nel meccanismo.
Anthropic voleva divieti contrattuali vincolanti. Le tutele di OpenAI rimandano alla legge esistente. E questo significa che il governo può usare quei modelli per tutto ciò che non è già illegale.
Come ha osservato MIT Technology Review:
"Siamo essenzialmente tornati al punto di partenza: permettere al Pentagono di usare la propria AI per qualsiasi uso legittimo."
Ma "legittimo" non è una categoria universale.
Cambia a seconda del Paese.
Il vuoto normativo globale
Il conflitto tra Anthropic e il Pentagono non è risolvibile all'interno delle norme attuali. Non esiste un sistema chiaro per stabilire quando un'AI militare sia "abbastanza sicura." La Direttiva DoD 3000.09 richiede "livelli appropriati di giudizio umano" nell'uso della forza. Ma non è stata scritta pensando ai modelli di linguaggio di frontiera.
E secondo le dichiarazioni giurate depositate in tribunale, una volta installato in un ambiente classificato e air-gapped, Claude non può essere modificato da remoto. Nessun accesso diretto. Nessun kill switch. Nessun intervento senza autorizzazione del Pentagono.
Un'azienda privata finisce per avere un potere di fatto nel limitare ciò che uno Stato può fare con una tecnologia acquistata legalmente. Uno Stato può mettere in lista nera un'azienda per aver posto quei limiti. E nessuna legge dice chi ha ragione.
Il problema non è solo americano.
Ciò che è legittimo sotto la FISA americana può essere incompatibile con il GDPR europeo. L'EU AI Act vieta alcune forme di sorveglianza biometrica di massa.
E questo è solo il fronte euro-americano. Il quadro globale è peggio.
Summit | Anno | Firmatari | USA | Cina | Tipo di impegno |
|---|---|---|---|---|---|
2023 | 50+ | ✅ | ✅ | Call to Action (non vincolante) | |
2024 | ~60 | ✅ | ❌ | Blueprint for Action (non vincolante) | |
2026 | 35 | ❌ | ❌ | Pathways for Action (non vincolante) |
Meno firmatari. Meno impegni. Meno consenso. Proprio mentre la tecnologia accelera.
È vero che Stati Uniti e Cina continuano a dialogare in formati più ristretti. Ma il risultato pratico non cambia: non esiste alcun vincolo condiviso.
All'ONU, il dibattito sulle armi autonome letali va avanti da nove anni. Il Segretario Generale Guterres le ha definite "moralmente ripugnanti" e ha chiesto un trattato entro il 2026. Nel dicembre 2024, 166 Paesi hanno votato a favore di una risoluzione sulle LAWS. Contrari: Bielorussia, Corea del Nord e Russia.
Ma il gruppo negoziale opera per consenso. Basta un solo Stato per bloccare tutto.
Nel vuoto lasciato dai trattati, le regole dell'AI militare vengono stabilite nelle negoziazioni commerciali.
Non nei parlamenti. Non nei trattati. Nei contratti.
Il silenzio europeo
Nessuna istituzione europea si è pronunciata formalmente sul caso.
Eppure la questione riguarda chiunque costruisca infrastrutture critiche su piattaforme AI negoziate a Washington.
L'EU AI Act regola l'uso dell'AI in Europa. Non regola come quei modelli vengono progettati negli Stati Uniti.
Se un sistema nasce per accettare "any lawful use", l'Europa può intervenire solo dopo.
Controllo successivo. Non vincolo architetturale.
E se nella vostra azienda usate AI, questa storia vi riguarda più di quanto sembri.
Dove siamo adesso
Il 9 marzo 2026 Anthropic ha depositato due cause federali: una nel Northern District of California, per violazione del Primo e Quinto Emendamento e dell'Administrative Procedure Act; l'altra davanti alla D.C. Circuit Court of Appeals.
Il 24 marzo, all'udienza preliminare davanti alla giudice Rita F. Lin, il tono è stato netto.
Lin ha definito la designazione "un tentativo di paralizzare Anthropic." Ha chiesto al governo perché, se il problema fosse l'integrità della catena di comando, il Pentagono non avesse semplicemente smesso di usare Claude — invece di attivare una norma concepita per fornitori stranieri ostili.
Quando il governo ha invocato la sicurezza nazionale, la giudice ha risposto:
Se basta che un fornitore IT sia "testardo" sui termini contrattuali per essere dichiarato un rischio, allora la soglia è pericolosamente bassa.
Microsoft ha depositato un amicus brief — una memoria volontaria a supporto di una delle parti in causa —, parlando di conseguenze gravi per l'intero settore tecnologico. Circa 50 dipendenti di OpenAI e Google DeepMind hanno fatto lo stesso a titolo personale. Elizabeth Warren ha definito la designazione una "ritorsione."
La decisione preliminare è attesa a breve. Ma anche se la giudice concedesse un'ingiunzione, la designazione verrebbe solo sospesa. Non annullata.
Il processo sul merito potrebbe durare un anno o più.
La domanda che resta aperta
Un'azienda ha detto: "Il nostro sistema non è pronto per questo."
È stata inserita in una lista nera.
Il sistema è rimasto attivo in combattimento perché troppo utile.
Le Nazioni Unite discutono senza produrre vincoli.
Una giudice federale sta decidendo se un'azienda privata possa limitare tecnicamente il proprio prodotto.
Nessuna istituzione è stata progettata per rispondere alla domanda:
Chi controlla l'AI?
Il Pentagono è progettato per vincere guerre. Le aziende per vendere tecnologia. L'ONU per costruire consenso. I tribunali per applicare la legge.
La domanda vive nello spazio tra queste istituzioni.
E in quello spazio oggi non c'è nessuno.
La governance dell'AI non viene decisa nei parlamenti. Non nei trattati. Non nei tribunali.
Viene decisa nei contratti.
La tecnologia corre alla velocità del capitale. Le regole alla velocità del consenso politico.
La distanza tra le due sta diventando il luogo in cui si decide il futuro.
La prossima volta che scegliete un modello AI per la vostra azienda, non state solo scegliendo un fornitore.
State scegliendo anche quale idea di potere entra nella vostra infrastruttura.
La newsletter si prende una pausa la prossima settimana per Pasqua. Ci rivediamo il 9 aprile.
Fabio Lauria
CEO & Founder, ELECTE
Ogni settimana esploriamo l'AI senza hype — con dati, analisi e un punto di vista indipendente.
Fonti
Caso Anthropic-Pentagono
CNBC — Anthropic sues Trump administration over Pentagon blacklist (9 marzo 2026)
CNBC — Judge presses DOD on why Anthropic was blacklisted (24 marzo 2026)
NPR — Anthropic sues Trump administration over blacklisting decision (9 marzo 2026)
TechCrunch — Elizabeth Warren calls Pentagon's decision to bar Anthropic 'retaliation' (23 marzo 2026)
eWeek — Warren Calls Anthropic Blacklist 'Retaliation' Ahead of Key Pentagon Hearing (24 marzo 2026)
Modern Diplomacy — Anthropic Challenges Pentagon Blacklisting (11 marzo 2026)
Android Headlines — AI at War: Anthropic Fights the Pentagon's 'Unprecedented' Blacklist in Court (25 marzo 2026)
Quadro normativo USA
10 U.S.C. § 3252 — Supply Chain Risk Statute
DoD Directive 3000.09 — Autonomy in Weapon Systems (2012, aggiornata 2023)
Armi autonome e governance internazionale
United Nations — GGE on Lethal Autonomous Weapons Systems 2026
UN News — UN chief calls for global ban on 'killer robots' (maggio 2025)
CCW GGE — Rolling Text on LAWS, status 18 December 2025 (PDF)
Stop Killer Robots — REAIM 2026 press release (febbraio 2026)
Summit REAIM
TheDefenseWatch — US and China Refuse to Sign Military AI Declaration at REAIM 2026 (6 febbraio 2026)
Just Security — Artificial Urgency: Reflecting on AI Hype at the 2026 REAIM Summit (marzo 2026)
Mexico Business News — Thirty-Five Nations Back Military AI Rules as US, China Opt Out (12 febbraio 2026)
U.S. Department of State — Political Declaration on Responsible Military Use of AI and Autonomy
Government of the Netherlands — REAIM 2023 Endorsing Countries
Normativa europea

Se questa analisi ti è stata utile, condividila con qualcuno a cui potrebbe interessare. E se vuoi scoprire come ELECTE usa l'AI per automatizzare l'analisi dati e la reportistica, trovi tutto su electe.net.
