Nel crescente intreccio tra difesa e intelligenza artificiale, lo scontro sull’AI di Anthropic con il Pentagono mette in luce i limiti etici dell’uso militare di queste tecnologie.
Summary
Anthropic sfida il Pentagono sul contratto da 200 milioni
La startup di intelligenza artificiale Anthropic ha rifiutato di accettare le richieste del Dipartimento della Difesa degli Stati Uniti, mettendo a rischio il suo contratto da 200 milioni di dollari. L’azienda si oppone infatti alla rimozione di alcune salvaguardie sull’uso dei propri modelli.
Nel 2023 il Dipartimento della Difesa ha assegnato contratti fino a 200 milioni anche a OpenAI, Google e xAI. Queste società hanno accettato che i loro modelli siano impiegati per tutti gli scopi leciti all’interno dei sistemi non classificati delle Forze Armate.
Anthropic ha firmato il proprio accordo da 200 milioni di dollari con il Pentagono a luglio. Inoltre è stato il primo laboratorio a integrare i propri modelli nei flussi operativi di missione su reti classificate, segnando un precedente rilevante per l’uso dell’AI in ambito militare.
Le radici del conflitto con il Dipartimento della Difesa
Nonostante la collaborazione iniziale, nelle ultime settimane i rapporti tra la startup e il Pentagono si sono fatti tesi. Secondo una fonte vicina al negoziato, le frizioni risalirebbero a “diversi mesi fa”, prima che diventasse pubblico l’impiego di Claude in un’operazione statunitense per il sequestro del presidente venezuelano Nicolás Maduro.
Al centro del conflitto vi sono i limiti d’impiego dei modelli. Anthropic cerca garanzie che le sue tecnologie non vengano utilizzate per armi completamente autonome o per una sorveglianza interna di massa sui cittadini americani. Il Dipartimento della Difesa, al contrario, punta a utilizzare i modelli senza queste restrizioni.
Inoltre la società ha reso noto di considerare alcune applicazioni dell’intelligenza artificiale incompatibili con la difesa dei valori democratici. Da qui la volontà di inserire vincoli formali nell’uso dei sistemi forniti alle autorità militari statunitensi.
AI di Anthropic e limiti su armi autonome e sorveglianza
Commentando tali rischi specifici, l’amministratore delegato Dario Amodei ha dichiarato che, in un ristretto insieme di casi, l’intelligenza artificiale può “minare, anziché difendere, i valori democratici”. Alcuni usi, ha aggiunto, esulano semplicemente da ciò che la tecnologia attuale può fare in modo sicuro e affidabile.
Amodei ha poi approfondito il tema della sorveglianza. Secondo il manager, sistemi di AI molto potenti consentono di “assemblare dati dispersi, singolarmente innocui, in un quadro completo della vita di qualsiasi persona, in modo automatico e su vasta scala”. Ciò apre scenari di controllo sociale difficilmente compatibili con uno stato di diritto.
Detto ciò, Anthropic distingue chiaramente tra intelligence estera e controllo interno. L’azienda afferma di sostenere l’uso dell’AI per attività di intelligence straniera nel rispetto della legge, ma ritiene che l’impiego di tali sistemi per una sorveglianza domestica di massa sia “incompatibile con i valori democratici”.
Minacce del Pentagono e ultime offerte al ribasso
Il segretario alla Difesa Pete Hegseth, che martedì ha incontrato Amodei al Pentagono, ha minacciato di etichettare la società come “rischio per la catena di approvvigionamento”. In alternativa potrebbe invocare il Defense Production Act per forzare l’azienda ad adeguarsi alle richieste.
Mercoledì sera il Dipartimento ha inviato ad Anthropic la sua “ultima e definitiva offerta”, fissando una scadenza alle 17:01 ET di venerdì per la risposta. Tuttavia, secondo una portavoce della startup, il testo aggiornato rappresentava “praticamente nessun progresso” rispetto alle posizioni precedenti.
La portavoce ha aggiunto che il nuovo linguaggio, pur presentato come un compromesso, era affiancato da formulazioni legali che avrebbero permesso di ignorare a piacimento le salvaguardie. In sostanza, per l’azienda il Pentagono manteneva la possibilità di aggirare in futuro i limiti concordati.
La posizione pubblica di Dario Amodei
Rispondendo alle pressioni, Amodei ha accusato il Dipartimento, che nel suo comunicato ha definito “Department of War”, di voler collaborare solo con aziende disposte ad accettare “qualsiasi uso lecito”. Ciò includerebbe, secondo il testo, la rimozione delle salvaguardie proprio nei casi più sensibili indicati da Anthropic.
Amodei ha riferito che le autorità hanno minacciato di rimuovere i loro sistemi dai network del Dipartimento se l’azienda dovesse mantenere tali limiti. Inoltre avrebbero ventilato l’ipotesi di designarla formalmente come “rischio per la catena di approvvigionamento”, con potenziali conseguenze su tutto il suo business istituzionale.
Nonostante questo, il dirigente ha ribadito che tali minacce non cambiano la posizione dell’azienda. Anthropic, ha dichiarato, non può “in coscienza” aderire alle richieste del Dipartimento, anche a costo di perdere un contratto di grande valore strategico ed economico.
La risposta ufficiale del Pentagono
Dal canto suo, il principale portavoce del Pentagono, Sean Parnell, ha affermato giovedì che il Dipartimento non ha “alcun interesse” a utilizzare i modelli della startup per armi completamente autonome o per condurre una sorveglianza di massa sugli americani. Quest’ultima, ha ricordato, è illegale.
Parnell ha sottolineato che l’obiettivo è ottenere il via libera all’impiego dei modelli per “tutti gli scopi leciti”. Si tratterebbe, secondo il portavoce, di una richiesta “semplice e di buon senso”, in linea con quanto già accettato da altri fornitori di AI.
Inoltre, un sottosegretario alla Difesa, Emil Michael, ha attaccato personalmente Amodei in un post su X. Lo ha accusato di voler “controllare personalmente le Forze Armate USA” e lo ha definito “bugiardo” con un “complesso di Dio”, alzando ulteriormente i toni dello scontro.
Sostegno interno all’industria tecnologica
La vicenda ha avuto eco anche nel settore tecnologico. In una lettera aperta, oltre 200 lavoratori provenienti da Google e OpenAI hanno espresso sostegno alla linea assunta da Anthropic sulla regolazione degli usi militari dell’intelligenza artificiale.
Inoltre, un ex funzionario del Dipartimento della Difesa ha dichiarato alla BBC che le motivazioni di Hegseth per ricorrere alla definizione di “rischio per la catena di approvvigionamento” sarebbero “estremamente fragili”. Il commento contrasta con la narrazione ufficiale della Difesa sulla necessità di questa classificazione.
Queste prese di posizione suggeriscono una crescente preoccupazione all’interno dell’industria tecnologica e delle istituzioni per l’uso militare dell’AI. Il caso Anthropic diventa così un precedente osservato da vicino da aziende e regolatori.
Prospettive future per la collaborazione tra AI e Difesa
Nonostante il conflitto, Amodei ha affermato di credere “profondamente” nell’importanza esistenziale di utilizzare l’intelligenza artificiale per difendere gli Stati Uniti. La società, ha aggiunto, resta convinta che queste tecnologie possano rafforzare la sicurezza nazionale se impiegate entro confini etici chiari.
Un rappresentante della startup ha dichiarato che l’organizzazione è ancora “pronta a proseguire i colloqui” ed è impegnata a garantire la continuità operativa per il Dipartimento e per i militari statunitensi. Tuttavia, la prosecuzione del contratto dipenderà dalla possibilità di conciliare esigenze di sicurezza e limiti sull’uso più controverso dell’AI.
Nel complesso, il braccio di ferro tra il Pentagono e Anthropic segna un punto di svolta nel dibattito su etica, difesa e intelligenza artificiale. L’esito dei negoziati potrebbe influenzare i futuri accordi tra governi e fornitori di tecnologie avanzate in tutto il mondo.

