HomeAIAnthropic rischio supply chain: giudice blocca il Pentagono, allarme per appalti

Anthropic rischio supply chain: giudice blocca il Pentagono, allarme per appalti

Nel pieno dello scontro tra governo USA e big tech dell’intelligenza artificiale, la vicenda Anthropic rischio supply chain rivela quanto possa essere politica una disputa contrattuale.

Il blocco temporaneo del giudice e il contesto politico

Giovedì scorso, una giudice della California ha sospeso temporaneamente il piano del Pentagono di classificare Anthropic come rischio per la catena di approvvigionamento e di ordinare alle agenzie federali di smettere di usare la sua AI.

La decisione arriva dopo oltre un mese di tensioni e non chiude il caso. Il governo dispone di 7 giorni per presentare ricorso e, inoltre, pende una seconda causa avviata da Anthropic contro la stessa designazione.

Nel frattempo, la società resta di fatto esclusa dai rapporti con l’amministrazione federale, che la considera persona non grata, sebbene non possa applicare formalmente il provvedimento contestato.

Una disputa contrattuale trasformata in guerra culturale

Secondo gli atti giudiziari, la posta in gioco è chiara: fino a che punto il governo può punire un’azienda che rifiuta di allinearsi politicamente o contrattualmente alle sue richieste.

Anthropic ha raccolto sostegni di alto profilo, inclusi ex autori delle politiche sull’AI dell’amministrazione Trump, creando alleanze inusuali nel dibattito sulla regolazione dell’intelligenza artificiale.

Tuttavia, l’opinione di 43 pagine della giudice Rita Lin suggerisce che si tratti, in sostanza, di una controversia contrattuale degenerata in scontro ideologico per via delle modalità con cui è stata gestita dal governo.

Secondo la giudice, l’esecutivo ha ignorato le procedure esistenti per la gestione di simili dispute e ha alimentato il caso con post sui social di funzionari che, in seguito, hanno contraddetto in tribunale le stesse posizioni pubblicamente espresse.

L’uso di Claude da parte del governo e l’origine del conflitto

I documenti depositati in giudizio indicano che il governo ha utilizzato il modello Claude per buona parte del 2025 senza particolari contestazioni, mentre Anthropic cercava di mantenere l’immagine di azienda attenta alla sicurezza e, al tempo stesso, contraente del settore difesa.

Gli addetti della difesa che accedevano al modello tramite Palantir dovevano accettare termini d’uso specifici per il governo. Secondo il cofondatore Jared Kaplan, tali clausole vietavano la sorveglianza di massa degli americani e l’impiego in sistemi letali autonomi.

Detto ciò, i dettagli di questa policy non sono stati allegati alla dichiarazione giurata di Kaplan. È solo nel momento in cui il governo ha cercato di stipulare un contratto diretto con Anthropic che sono emersi i primi dissensi rilevanti.

Tweet prima, avvocati dopo: il ruolo dei social

Ciò che ha maggiormente irritato la giudice è stato il carattere punitivo assunto dalla vicenda una volta divenuta pubblica, più che la semplice volontà del governo di interrompere la collaborazione con l’azienda.

Inoltre, i passaggi chiave sembrano seguire uno schema preciso: prima le dichiarazioni aggressive sui social, poi i tentativi dei legali governativi di fornire una giustificazione giuridica a posteriori.

Il 27 febbraio, su Truth Social, il presidente Donald Trump ha definito i dirigenti di Anthropic “Leftwing nutjobs” e ha ordinato a tutte le agenzie federali di cessare l’uso della sua AI.

Poco dopo, il segretario alla Difesa Pete Hegseth ha annunciato di voler spingere il Pentagono a etichettare Anthropic come rischio per la catena di approvvigionamento, intensificando lo scontro.

Errori procedurali e accuse senza prove concrete

La legge impone al segretario alla Difesa una serie di passaggi specifici per dichiarare un soggetto rischio per la supply chain. La giudice ha stabilito che Hegseth non ha completato tali adempimenti.

Lettere inviate alle commissioni del Congresso affermavano che misure meno drastiche erano state valutate e giudicate impossibili, ma senza fornire alcun dettaglio a supporto di questa valutazione.

Il governo ha inoltre sostenuto che la designazione fosse necessaria perché Anthropic avrebbe potuto attivare un “kill switch” sui propri sistemi. Tuttavia, i legali hanno poi dovuto ammettere in aula di non avere alcuna prova a riguardo.

Un post di Hegseth dichiarava anche che nessun contraente, fornitore o partner del settore difesa poteva svolgere attività commerciali con Anthropic. In tribunale, però, gli stessi avvocati governativi hanno riconosciuto che il segretario non ha il potere di imporre un divieto del genere.

Anthropic e libertà di espressione al centro della causa

Queste prese di posizione hanno portato la giudice a ritenere fondate le lamentele di Anthropic in merito a presunte violazioni del Primo Emendamento, che tutela la libertà di espressione negli Stati Uniti.

Secondo la motivazione, alla luce dei post pubblici le autorità avrebbero cercato di punire apertamente la società per la sua “ideologia” e “retorica”, e per la presunta “arroganza” nel rifiutarsi di comprometterle.

Etichettare Anthropic come rischio per la catena di approvvigionamento equivale, nella sostanza, a individuarla come potenziale “sabotatrice” dell’attività governativa. Per la giudice, non esistono prove sufficienti a giustificare un simile livello di allarme.

Per questo, la scorsa settimana è stato emesso un ordine che sospende la designazione, impedisce al Pentagono di applicarla e blocca l’esecuzione delle promesse pubblicamente avanzate da Hegseth e Trump.

Implicazioni legali della dicitura Anthropic rischio supply chain

Dean Ball, già impegnato sulle politiche di AI dell’amministrazione Trump e autore di una memoria a sostegno di Anthropic, ha definito l’ordinanza “devastante” per il governo.

A suo giudizio, la decisione ritiene la società verosimilmente vincente su quasi tutte le tesi avanzate per dimostrare l’illegittimità e l’incostituzionalità delle azioni dell’esecutivo in questa materia.

Il governo dovrebbe ora presentare appello. Parallelamente, resta pendente una seconda causa intentata da Anthropic a Washington, che muove accuse analoghe facendo però riferimento a una diversa sezione della normativa sui rischi di supply chain.

Nel complesso, gli atti processuali delineano un quadro omogeneo: le dichiarazioni pubbliche di funzionari e del Presidente si distanziano in modo marcato da quanto prevede la legge per una controversia contrattuale di questo tipo.

Pressioni indirette e impatto sugli appalti della difesa

La conseguenza è che i legali governativi si sono ripetutamente trovati a dover costruire, ex post, una base giuridica per le campagne di critica via social rivolte all’azienda, anziché seguire l’iter formale previsto.

La leadership del Pentagono e della Casa Bianca era consapevole che optare per quella che nei documenti viene definita “opzione nucleare” avrebbe innescato un contenzioso giudiziario di alto profilo.

Anthropic aveva dichiarato il 27 febbraio l’intenzione di contestare la designazione giorni prima che il governo la formalizzasse il 3 marzo. Proseguire comunque sulla linea dura ha assorbito tempo e risorse nei primi cinque giorni della guerra in Iran.

In quel periodo, mentre venivano autorizzati gli attacchi, l’amministrazione raccoglieva parallelamente elementi per dimostrare che Anthropic fosse una sabotrice del governo, nonostante potesse interrompere la collaborazione con modalità molto più semplici.

Oltre la sentenza: margini residui di pressione politica

Anche se Anthropic dovesse ottenere una vittoria definitiva, l’amministrazione conserva margini per limitarne l’accesso agli appalti pubblici senza incorrere in nuove violazioni di legge.

Per esempio, i contraenti della difesa che desiderano mantenere rapporti distesi con il Pentagono avranno pochi incentivi a lavorare con Anthropic, anche in assenza di un’etichetta formale di rischio nella supply chain.

Secondo Charlie Bullock, senior research fellow presso l’Institute for Law and AI, il governo dispone di meccanismi per esercitare “una certa pressione” pur restando entro i confini della legalità.

Detto ciò, il livello di pressione dipenderà da quanto l’esecutivo riterrà strategico continuare a punire Anthropic e a lanciare un messaggio politico al settore dell’intelligenza artificiale.

Una guerra culturale sull’AI e il ruolo operativo di Claude

Dagli elementi emersi finora, l’amministrazione appare determinata a investire tempo e attenzione ai massimi livelli per imporsi in una sorta di guerra culturale sull’intelligenza artificiale.

Inoltre, Claude sembra avere un ruolo operativo tutt’altro che marginale: lo stesso Trump ha dichiarato che il Pentagono avrebbe bisogno di 6 mesi per interromperne l’utilizzo.

La Casa Bianca chiede fedeltà politica e allineamento ideologico alle principali aziende di AI. Tuttavia, il caso Anthropic mette in luce, almeno per ora, i limiti effettivi della leva governativa sul settore.

Chiunque disponga di informazioni sull’uso militare dell’intelligenza artificiale può condividerle in modo sicuro tramite Signal, contattando l’utente “jamesodonnell.22”.

Francesco Antonio Russo
Francesco Antonio Russo è un analista e divulgatore nel settore delle criptovalute, del Web3 e dell’Intelligenza Artificiale. Da più di 6 anni studia l’evoluzione dei mercati digitali e delle tecnologie decentralizzate, con particolare attenzione all’impatto economico e sociale della blockchain. Su Cryptonomist approfondisce trend, regolamentazioni e innovazioni, offrendo contenuti accurati e comprensibili anche ai non addetti ai lavori.
RELATED ARTICLES

Stay updated on all the news about cryptocurrencies and the entire world of blockchain.

Featured video

LATEST