La società di intelligenza artificiale Anthropic, guidata dal cofondatore Dario Amodei, è al centro di uno scontro aperto con il Dipartimento della Guerra degli Stati Uniti. Il motivo? L’azienda ha rifiutato di eliminare due regole etiche chiave sui suoi prodotti destinati all’uso militare: il divieto di sorveglianza di massa sui cittadini e il divieto di creare armi completamente autonome.
Amodei ha spiegato che togliere questi limiti metterebbe a rischio i valori democratici e supererebbe le capacità di sicurezza dell’AI attuale. La scelta di Anthropic va contro possibili guadagni economici immediati, ma riflette una visione di lungo periodo: usare l’intelligenza artificiale senza compromettere la sicurezza dei cittadini e dei militari.
Difendere la democrazia, ma con limiti tecnici
In un comunicato pubblicato il 26 febbraio 2026, Amodei ha sottolineato l’importanza dell’AI per la sicurezza nazionale e per la difesa delle democrazie, ma ha chiarito i limiti dell’azienda: «Credo profondamente nell’importanza esistenziale dell’uso dell’intelligenza artificiale per difendere gli Stati Uniti e le altre democrazie, e per sconfiggere i nostri avversari autocratici».
Anthropic rivendica un ruolo pionieristico nell’integrazione dell’AI nei sistemi di sicurezza, avendo distribuito modelli nei network classificati del governo, nei laboratori nazionali e fornito soluzioni su misura per clienti della difesa. Il modello Claude, sviluppato dall’azienda, è oggi impiegato in operazioni critiche come analisi di intelligence, simulazioni e cyber operations.
Nonostante ciò, l’azienda mantiene due linee rosse: la sorveglianza domestica di massa e le armi completamente autonome. La prima è giudicata incompatibile con i valori democratici, vista la capacità dell’AI di creare profili dettagliati degli individui. La seconda è ritenuta tecnicamente immatura e priva dei necessari guardrail per sostituire il giudizio umano. «Non possiamo fornire consapevolmente un prodotto che metta a rischio i nostri militari o i civili», ha ribadito Amodei.
La risposta dura del Pentagono
La reazione del Dipartimento della Guerra non si è fatta attendere. Emil Michael, sottosegretario alla Guerra, ha pubblicamente attaccato Amodei, definendolo un «bugiardo con un complesso di Dio» e accusandolo di voler controllare l’esercito a suo piacimento. Il Dipartimento ha sottolineato che non accetterà limiti imposti da «una singola azienda tecnologica a scopo di lucro».
In questa cornice si inserisce la minaccia del ricorso al Defense Production Act (DPA), legge che consente al governo di obbligare aziende private a fornire beni o servizi ritenuti essenziali per la sicurezza nazionale. L’utilizzo del DPA per accedere a software AI privati rappresenterebbe un precedente storico, aprendo a contenziosi complessi sul controllo statale delle tecnologie emergenti.
Parallelamente, Anthropic rischia anche di essere classificata come «supply chain risk», etichetta che comporterebbe esclusione dai contratti militari e interruzione dei rapporti con altre aziende della difesa, con effetti a catena sull’intero ecosistema tecnologico statunitense.
Scenari futuri
Gli osservatori individuano tre possibili sviluppi dello scontro:
- Compromesso tecnico – Anthropic potrebbe adattare i propri guardrail per alcune funzioni militari, mantenendo però limiti critici su targeting autonomo e sorveglianza.
- Rottura definitiva – L’azienda verrebbe esclusa dai contratti governativi, sostituita da fornitori più permissivi.
- Intervento coercitivo dello Stato – Il governo potrebbe forzare l’accesso ai sistemi di Anthropic tramite il Defense Production Act, segnando una sorta di nazionalizzazione funzionale dell’AI privata.
Qualsiasi sia l’esito, il confronto segna una fase nuova nei rapporti tra Silicon Valley e apparato militare, mettendo in luce il difficile equilibrio tra innovazione tecnologica, sicurezza nazionale ed etica nell’uso dell’intelligenza artificiale.








