Anthropic fa causa al Pentagono: scontro sull’uso dell’intelligenza artificiale nell’esercito

Anthropic fa causa al Pentagono: scontro sull’uso dell’intelligenza artificiale nell’esercito

Anthropic fa causa al Pentagono: scontro sull’uso dell’intelligenza artificiale nell’esercito

Si alza lo scontro tra la startup di intelligenza artificiale Anthropic e il Pentagono. L’azienda ha deciso di citare in giudizio il Dipartimento della Difesa degli Stati Uniti dopo essere stata classificata come un rischio per la catena di approvvigionamento nazionale, una mossa che potrebbe escludere la sua tecnologia dalle infrastrutture militari americane.

Al centro della disputa c’è il ruolo dell’intelligenza artificiale nelle operazioni militari e i limiti che le aziende tecnologiche sono disposte ad accettare quando i loro sistemi vengono utilizzati in ambito bellico.

La causa contro il Dipartimento della Difesa

Secondo quanto riportato da Reuters, Anthropic ha avviato un’azione legale per impedire al Pentagono di inserirla in una sorta di lista nera legata alla sicurezza nazionale. L’azienda sostiene che la decisione sia illegittima e che violi principi fondamentali della Costituzione americana.

“Queste azioni sono senza precedenti e illegali. La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua libertà di parola”, hanno dichiarato i rappresentanti della società.

Secondo la startup, la classificazione come rischio per la sicurezza non sarebbe motivata da reali problemi tecnici o di sicurezza, ma dalle divergenze emerse sull’utilizzo dei suoi sistemi di intelligenza artificiale in contesti militari.

Le origini delle tensioni

Lo scontro tra le due parti sarebbe nato quando Anthropic si è rifiutata di concedere al Pentagono un accesso illimitato ai propri modelli di intelligenza artificiale. In particolare, l’azienda avrebbe mantenuto alcune limitazioni sull’uso dei suoi strumenti, anche nel caso di operazioni considerate “legali” dai protocolli militari statunitensi.

Questa posizione ha spinto il Dipartimento della Difesa a classificare la tecnologia dell’azienda come un potenziale rischio per la catena di fornitura americana, avviando un piano per eliminarla progressivamente dai sistemi utilizzati dalle forze armate.

La decisione rappresenta un segnale forte nella crescente attenzione degli Stati Uniti verso la sicurezza tecnologica e il controllo delle infrastrutture digitali strategiche.

Il caso dell’attacco all’Iran

La tensione si è ulteriormente amplificata dopo una rivelazione pubblicata dal Wall Street Journal. Secondo il quotidiano, il Pentagono avrebbe utilizzato il modello di intelligenza artificiale Claude, sviluppato da Anthropic, in relazione a un attacco contro l’Iran.

L’episodio sarebbe avvenuto poco dopo il divieto imposto dal capo del Dipartimento della Difesa, Pete Hegseth, che aveva vietato l’utilizzo degli strumenti dell’azienda.

Se confermata, la notizia aprirebbe un ulteriore fronte di polemica: da un lato l’accusa di aver escluso una tecnologia per ragioni politiche o strategiche, dall’altro l’eventuale utilizzo della stessa tecnologia in operazioni militari sensibili.

Un caso simbolo nel rapporto tra IA e difesa

Il contenzioso tra Anthropic e il Pentagono riflette un tema sempre più centrale nel settore tecnologico: il rapporto tra aziende di intelligenza artificiale e apparati militari.

Molte società del settore stanno definendo limiti etici e operativi sull’uso dei propri modelli, soprattutto quando si tratta di applicazioni legate alla guerra o alla sicurezza nazionale. Allo stesso tempo, i governi considerano l’IA una tecnologia strategica e cercano di garantirne l’accesso per scopi militari.

La causa avviata da Anthropic potrebbe quindi diventare un precedente importante, destinato a influenzare il modo in cui le aziende tecnologiche collaboreranno con le istituzioni di difesa nei prossimi anni.

Scopri di più da Economia X Finanza

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere