SAN FRANCISCO– Un giudice federale si è pronunciato a favore della società di intelligenza artificiale Anthropic, impedendo temporaneamente al Pentagono di etichettare la società come un rischio per la catena di approvvigionamento.

Il giudice distrettuale degli Stati Uniti Rita Lin ha dichiarato giovedì di aver anche bloccato l’applicazione della direttiva sui social media del presidente Donald Trump che ordina a tutte le agenzie federali di smettere di usare Anthropic e il suo chatbot Claude.

DI PIÙ: I segnali di OpenAI si occupano del Pentagono poche ore dopo che l’amministrazione Trump ha vietato Anthropic

Lin ha affermato che le “ampie misure punitive” adottate contro la società AI dall’amministrazione Trump e dal segretario alla Difesa Pete Hegseth sono apparse arbitrarie, capricciose e potrebbero “paralizzare Anthropic”, in particolare il precedentemente raro esercizio dell’autorità militare da parte di Hegseth contro avversari stranieri.

“Niente nella legge attuale supporta l’idea orwelliana secondo cui una società americana potrebbe essere etichettata come potenziale nemica e sabotatrice degli Stati Uniti per aver espresso disaccordo con il governo”, ha scritto Lin.

La decisione di Lin è arrivata dopo un’udienza di 90 minuti presso la corte federale di San Francisco martedì, quando Lin ha messo in dubbio se l’amministrazione Trump avesse compiuto il passo straordinario di punire Anthropic dopo che i negoziati su un contratto di difesa si erano inaspriti a causa del tentativo dell’azienda di impedire l’impiego della sua tecnologia di intelligenza artificiale in armi completamente autonome o nella sorveglianza degli americani.

Anthropic aveva chiesto a Lin di emettere un ordine di emergenza per rimuovere lo stigma, che secondo lui è stato applicato ingiustamente come parte di una “campagna di ritorsione illegale” che ha portato la società con sede a San Francisco a citare in giudizio l’amministrazione Trump all’inizio di questo mese. Il Pentagono ha sostenuto che dovrebbe essere in grado di utilizzare Claude in qualsiasi modo ritenga legale.

Lin ha affermato che la sua decisione non riguardava questo dibattito di politica pubblica, ma le azioni intraprese dal governo in risposta.

“Se la preoccupazione è l’integrità della catena di comando operativa, il Dipartimento della Guerra potrebbe cessare di usare Claude. Invece, queste misure sembrano progettate per punire Anthropic”, ha scritto Lin.

Anthropic ha anche intentato una causa separata e più ristretta che è ancora pendente presso la corte d’appello federale di Washington, D.C. Questo caso coinvolge una regola diversa che il Pentagono ha utilizzato per cercare di dichiarare Anthropic un rischio per la catena di approvvigionamento.

Lin ha scritto che il suo ordine è stato ritardato di una settimana e non richiedeva al Pentagono di utilizzare prodotti Anthropic o di impedirgli di passare ad altri fornitori di intelligenza artificiale.

Anthropic ha affermato in un comunicato di essere “grato alla corte per aver agito rapidamente e lieto che abbiano concordato che Anthropic potesse avere successo nel merito”. La società ha affermato che la causa era necessaria per proteggere la propria attività e i propri clienti, ma rimane concentrata sul “lavorare efficacemente con il governo per garantire che tutti gli americani traggano beneficio da un’intelligenza artificiale sicura e affidabile”.

Il Pentagono non ha risposto immediatamente alla richiesta di commento sulla decisione.

Un certo numero di terze parti, tra cui Microsoft, gruppi commerciali del settore, normali lavoratori del settore tecnologico, leader militari statunitensi in pensione e un gruppo di teologi cattolici, avevano presentato memorie legali a sostegno della causa di Anthropic.

Il video nella riproduzione multimediale qui sopra proviene da un rapporto precedente.


Copyright © 2026 dell’Associated Press. Tutti i diritti riservati.

Collegamento alla fonte