Il protagonista è Claude, il modello sviluppato da Anthropic.

Il 27 febbraio 2026 il Pentagono ha inserito l'azienda in una lista nera riservata, fino a quel momento, a Kaspersky, Huawei e fornitori legati a potenze rivali. La formula ufficiale: "rischio per la catena di approvvigionamento della sicurezza nazionale", ai sensi del 10 U.S.C. § 3252 — una norma pensata per il sabotaggio straniero.

Mai usata prima contro un'azienda americana.

Il motivo? Anthropic ha rifiutato di eliminare due clausole dal proprio contratto da 200 milioni di dollari con il Dipartimento della Difesa. La prima vietava l'uso di Claude per la sorveglianza di massa dei cittadini americani. La seconda ne vietava l'impiego in armi completamente autonome senza supervisione umana.

Il 26 febbraio, il CEO Dario Amodei aveva scritto:

"Anche le armi completamente autonome potrebbero rivelarsi cruciali per la nostra difesa nazionale. Ma oggi i sistemi AI di frontiera non sono semplicemente abbastanza affidabili per alimentarle. Non forniremo consapevolmente un prodotto che mette a rischio i combattenti americani e i civili."

Il giorno dopo la blacklist, gli Stati Uniti hanno avviato gli attacchi aerei contro l'Iran nell'ambito dell'operazione Epic Fury.

E Claude era ancora lì.

Attivo nei sistemi militari classificati, destinato a restarci per mesi grazie a una finestra di rimozione di 180 giorni prevista dalla designazione stessa. Secondo diverse ricostruzioni giornalistiche, il sistema ha contribuito alla classificazione e alla selezione degli obiettivi militari.

Il CENTCOM ha confermato l'impiego di "strumenti AI avanzati." La CIO del Pentagono, Kirsten Davies, ha dichiarato davanti al Senato:

"L'uso del sistema è attivo in questo momento."

Indispensabile e pericoloso. Stesso sistema. Stessa settimana.

Questa non è solo una storia su un contratto andato storto.

La domanda senza proprietario

È la storia di una domanda che oggi nessuna istituzione al mondo ha il diritto formale di risolvere:

Chi decide cosa può fare un sistema di intelligenza artificiale?

L'azienda che l'ha costruito? Il governo che l'ha comprato? Il parlamento? Un trattato internazionale? Nessuno?

Nella pratica, la risposta è molto meno nobile di quanto sembri:

Dipende dal contratto.

Caso per caso. Clausola per clausola. Negoziazione per negoziazione.

Senza trasparenza, senza precedenti vincolanti, senza che i cittadini abbiano voce in capitolo.

Il caso Anthropic-Pentagono ha semplicemente reso visibile ciò che fino a ieri restava nell'ombra.

Il costruttore dice: “non è pronto”

L'argomento di Anthropic è tecnico prima ancora che etico.

Un sistema AI ha tassi di errore misurabili. Se quei tassi sono incompatibili con una certa applicazione — per esempio armi che selezionano e ingaggiano obiettivi senza intervento umano — il produttore ha una responsabilità ingegneristica nel dirlo.

Se Boeing comunicasse al Pentagono che un velivolo non è certificato per un certo profilo di missione, la risposta normale sarebbe una revisione tecnica. Non una lista nera.

Anthropic ha fatto l'equivalente, in chiave AI.

Ma la storia non si ferma qui.

Boeing non farebbe coincidere una comunicazione tecnica con la scadenza di un ultimatum politico. Non la presenterebbe come una battaglia per i "valori democratici." E difficilmente vedrebbe il proprio prodotto balzare al primo posto dell'App Store il giorno dopo.

Inoltre, i limiti dichiarati da Anthropic sono selettivi, come emerge dalle dichiarazioni giurate depositate nel contenzioso federale. L'azienda accetta l'uso di Claude per l'intelligence straniera. Accetta sistemi parzialmente autonomi. Il rifiuto riguarda due linee precise:

  • Sorveglianza domestica di massa

  • Piena autonomia letale senza supervisione umana

Non è un rifiuto dell'uso militare. È un rifiuto calibrato.

Il governo dice: "decidiamo noi"

La posizione del Pentagono ha una logica speculare.

In una democrazia, le operazioni militari sono autorizzate dal Congresso, dirette dal Presidente e sottoposte al controllo giudiziario. Lo standard richiesto — "any lawful use" — significa: qualsiasi uso consentito dalla legge vigente.

Il memorandum strategico del 9 gennaio 2026 ha formalizzato questa impostazione.

Chi ha accettato, è entrato.

OpenAI ha firmato un contratto classificato poche ore dopo la blacklist di Anthropic. xAI aveva già firmato il 23 febbraio.

La differenza non è nel principio. Entrambe dichiarano limiti.

La differenza è nel meccanismo.

Anthropic voleva divieti contrattuali vincolanti. Le tutele di OpenAI rimandano alla legge esistente. E questo significa che il governo può usare quei modelli per tutto ciò che non è già illegale.

Come ha osservato MIT Technology Review:

"Siamo essenzialmente tornati al punto di partenza: permettere al Pentagono di usare la propria AI per qualsiasi uso legittimo."

Ma "legittimo" non è una categoria universale.

Cambia a seconda del Paese.

Il vuoto normativo globale

Il conflitto tra Anthropic e il Pentagono non è risolvibile all'interno delle norme attuali. Non esiste un sistema chiaro per stabilire quando un'AI militare sia "abbastanza sicura." La Direttiva DoD 3000.09 richiede "livelli appropriati di giudizio umano" nell'uso della forza. Ma non è stata scritta pensando ai modelli di linguaggio di frontiera.

E secondo le dichiarazioni giurate depositate in tribunale, una volta installato in un ambiente classificato e air-gapped, Claude non può essere modificato da remoto. Nessun accesso diretto. Nessun kill switch. Nessun intervento senza autorizzazione del Pentagono.

Un'azienda privata finisce per avere un potere di fatto nel limitare ciò che uno Stato può fare con una tecnologia acquistata legalmente. Uno Stato può mettere in lista nera un'azienda per aver posto quei limiti. E nessuna legge dice chi ha ragione.

Il problema non è solo americano.

Ciò che è legittimo sotto la FISA americana può essere incompatibile con il GDPR europeo. L'EU AI Act vieta alcune forme di sorveglianza biometrica di massa.

E questo è solo il fronte euro-americano. Il quadro globale è peggio.

Summit

Anno

Firmatari

USA

Cina

Tipo di impegno

2023

50+

Call to Action (non vincolante)

2024

~60

Blueprint for Action (non vincolante)

2026

35

Pathways for Action (non vincolante)

Meno firmatari. Meno impegni. Meno consenso. Proprio mentre la tecnologia accelera.

È vero che Stati Uniti e Cina continuano a dialogare in formati più ristretti. Ma il risultato pratico non cambia: non esiste alcun vincolo condiviso.

All'ONU, il dibattito sulle armi autonome letali va avanti da nove anni. Il Segretario Generale Guterres le ha definite "moralmente ripugnanti" e ha chiesto un trattato entro il 2026. Nel dicembre 2024, 166 Paesi hanno votato a favore di una risoluzione sulle LAWS. Contrari: Bielorussia, Corea del Nord e Russia.

Ma il gruppo negoziale opera per consenso. Basta un solo Stato per bloccare tutto.

Nel vuoto lasciato dai trattati, le regole dell'AI militare vengono stabilite nelle negoziazioni commerciali.

Non nei parlamenti. Non nei trattati. Nei contratti.

Il silenzio europeo

Nessuna istituzione europea si è pronunciata formalmente sul caso.

Eppure la questione riguarda chiunque costruisca infrastrutture critiche su piattaforme AI negoziate a Washington.

L'EU AI Act regola l'uso dell'AI in Europa. Non regola come quei modelli vengono progettati negli Stati Uniti.

Se un sistema nasce per accettare "any lawful use", l'Europa può intervenire solo dopo.

Controllo successivo. Non vincolo architetturale.

E se nella vostra azienda usate AI, questa storia vi riguarda più di quanto sembri.

Dove siamo adesso

Il 9 marzo 2026 Anthropic ha depositato due cause federali: una nel Northern District of California, per violazione del Primo e Quinto Emendamento e dell'Administrative Procedure Act; l'altra davanti alla D.C. Circuit Court of Appeals.

Il 24 marzo, all'udienza preliminare davanti alla giudice Rita F. Lin, il tono è stato netto.

Lin ha definito la designazione "un tentativo di paralizzare Anthropic." Ha chiesto al governo perché, se il problema fosse l'integrità della catena di comando, il Pentagono non avesse semplicemente smesso di usare Claude — invece di attivare una norma concepita per fornitori stranieri ostili.

Quando il governo ha invocato la sicurezza nazionale, la giudice ha risposto:

Se basta che un fornitore IT sia "testardo" sui termini contrattuali per essere dichiarato un rischio, allora la soglia è pericolosamente bassa.

Microsoft ha depositato un amicus brief — una memoria volontaria a supporto di una delle parti in causa —, parlando di conseguenze gravi per l'intero settore tecnologico. Circa 50 dipendenti di OpenAI e Google DeepMind hanno fatto lo stesso a titolo personale. Elizabeth Warren ha definito la designazione una "ritorsione."

La decisione preliminare è attesa a breve. Ma anche se la giudice concedesse un'ingiunzione, la designazione verrebbe solo sospesa. Non annullata.

Il processo sul merito potrebbe durare un anno o più.

La domanda che resta aperta

Un'azienda ha detto: "Il nostro sistema non è pronto per questo."

È stata inserita in una lista nera.

Il sistema è rimasto attivo in combattimento perché troppo utile.

Le Nazioni Unite discutono senza produrre vincoli.

Una giudice federale sta decidendo se un'azienda privata possa limitare tecnicamente il proprio prodotto.

Nessuna istituzione è stata progettata per rispondere alla domanda:

Chi controlla l'AI?

Il Pentagono è progettato per vincere guerre. Le aziende per vendere tecnologia. L'ONU per costruire consenso. I tribunali per applicare la legge.

La domanda vive nello spazio tra queste istituzioni.

E in quello spazio oggi non c'è nessuno.

La governance dell'AI non viene decisa nei parlamenti. Non nei trattati. Non nei tribunali.

Viene decisa nei contratti.

La tecnologia corre alla velocità del capitale. Le regole alla velocità del consenso politico.

La distanza tra le due sta diventando il luogo in cui si decide il futuro.

La prossima volta che scegliete un modello AI per la vostra azienda, non state solo scegliendo un fornitore.

State scegliendo anche quale idea di potere entra nella vostra infrastruttura.

La newsletter si prende una pausa la prossima settimana per Pasqua. Ci rivediamo il 9 aprile.

Fabio Lauria
CEO & Founder, ELECTE

Ogni settimana esploriamo l'AI senza hype — con dati, analisi e un punto di vista indipendente.

Fonti

Caso Anthropic-Pentagono

Quadro normativo USA

  1. 10 U.S.C. § 3252 — Supply Chain Risk Statute

  2. DoD Directive 3000.09 — Autonomy in Weapon Systems (2012, aggiornata 2023)

Armi autonome e governance internazionale

Summit REAIM

Normativa europea

Se questa analisi ti è stata utile, condividila con qualcuno a cui potrebbe interessare. E se vuoi scoprire come ELECTE usa l'AI per automatizzare l'analisi dati e la reportistica, trovi tutto su electe.net.

Recommended for you