SAN FRANCISCO– La società di intelligenza artificiale Anthropic ha fatto causa per impedire all’amministrazione Trump di attuare quella che definisce una “campagna di ritorsione illegale” per il suo rifiuto di consentire l’uso militare illimitato della sua tecnologia.

Lunedì Anthropic ha chiesto ai tribunali federali di revocare la decisione del Pentagono della scorsa settimana di designare la società di intelligenza artificiale come “a rischio per la catena di fornitura”. La società mira inoltre a revocare l’ordine del presidente Donald Trump ai dipendenti federali di smettere di usare il suo chatbot AI Claude.

La sfida legale intensifica una disputa insolitamente pubblica su come l’intelligenza artificiale potrebbe essere utilizzata nella guerra e nella sorveglianza di massa; Ciò ha coinvolto i rivali di Anthropic nel settore tecnologico, in particolare il produttore di ChatGPT OpenAI, che ha stretto un accordo per collaborare con il Pentagono poche ore dopo che il governo aveva punito Anthropic per la sua posizione.

Lunedì Anthropic ha intentato due cause separate, una presso un tribunale federale della California e l’altra presso una corte d’appello federale a Washington, D.C.; ciascuno ha messo in dubbio diversi aspetti delle azioni del governo contro la società con sede a San Francisco.

“Queste azioni sono senza precedenti e illegali”, afferma la causa di Anthropic. “La Costituzione non consente al governo di esercitare la sua enorme autorità per punire un’azienda per la libertà di parola. Nessuna legge federale autorizza le azioni intraprese in questo caso. Anthropic si rivolge alla magistratura come ultima risorsa per difendere i propri diritti e fermare l’illegale campagna di ritorsione dell’esecutivo.”

Lunedì il Dipartimento della Difesa ha rifiutato di commentare, citando la sua politica di non commentare le questioni del caso.

Anthropic ha affermato che sta cercando di limitare l’uso della sua tecnologia per la sorveglianza di massa degli americani e di armi completamente autonome. Il segretario alla Difesa Pete Hegseth e altri alti funzionari hanno insistito pubblicamente sul fatto che la società dovesse accettare “tutti gli usi leciti” di Claude, hanno minacciato sanzioni se Anthropic non si fosse conformata e hanno condannato l’azienda e il suo amministratore delegato, Dario Amodei, sui social media.

Designare l’azienda come un rischio per la catena di fornitura interrompe gli sforzi di difesa di Anthropic, utilizzando un’autorità progettata per impedire agli avversari stranieri di danneggiare i sistemi di sicurezza nazionale. Questa è la prima volta che si sa che il governo federale ha usato questo nome contro una società statunitense. Secondo la causa di Anthropic, Hegseth ha affermato in una lettera del 4 marzo ad Anthropic che era “necessario per proteggere la sicurezza nazionale”.

Trump ha anche detto che ordinerà alle agenzie federali di smettere di usare Claude, ma ha concesso al Pentagono sei mesi per eliminare gradualmente un prodotto che è profondamente radicato nei sistemi militari classificati, compresi quelli utilizzati nella guerra con l’Iran.

La causa di Anthropic nomina anche altre agenzie federali, tra cui il Dipartimento del Tesoro e quello di Stato, dopo che i funzionari dell’agenzia hanno ordinato ai dipendenti di smettere di usare Claude.

Michael Pastor, professore alla New York Law School che in precedenza ha contribuito alla stesura di accordi tecnologici come consigliere generale della città di New York, ha affermato che Anthropic ha avanzato molti argomenti forti sul Primo Emendamento e sul giusto processo in un caso che “è diventato incomprensibile”.

“Non ho mai visto un caso come questo”, ha detto Pastor. “Non avremmo mai pensato che in caso di difficoltà in una trattativa avremmo sostanzialmente minacciato di distruggere l’azienda”.

Anche mentre combatteva contro le azioni del Pentagono, Anthropic ha cercato di convincere aziende e altre agenzie governative che la definizione di rischio della catena di fornitura dell’amministrazione Trump era una definizione ristretta che riguardava solo gli appaltatori militari che utilizzano Claude per il Dipartimento della Difesa.

Chiarire questa distinzione è vitale per Anthropic, una società privata, perché la maggior parte dei suoi ricavi stimati in 14 miliardi di dollari quest’anno provengono da aziende e agenzie governative che utilizzano Claude per la codifica dei computer e altre attività. Più di 500 clienti pagano ad Anthropic almeno 1 milione di dollari all’anno per Claude, secondo un recente annuncio di investimento che ha valutato l’azienda a 380 miliardi di dollari.

“La richiesta di un controllo giurisdizionale non cambia il nostro impegno di lunga data nello sfruttare l’intelligenza artificiale per proteggere la nostra sicurezza nazionale, ma è un passo necessario per proteggere la nostra attività, i nostri clienti e i nostri partner”, ha affermato Anthropic in una nota lunedì.

La causa considera la sicurezza dell’intelligenza artificiale e i “risultati positivi per l’umanità” come fondamentali per la missione di Anthropic da quando è stata fondata nel 2021 da Amodei e altri sei ex dipendenti di OpenAI.

L’azienda ha affermato nella sua causa che la sua politica di utilizzo ha sempre proibito “la guerra letale e autonoma senza supervisione umana e sorveglianza di massa degli americani”. Anthropic ha affermato di non aver mai testato Claude su queste applicazioni e di non credere che i suoi prodotti “possano funzionare in modo affidabile o sicuro se utilizzati per supportare una guerra letale e autonoma”.

Ha inoltre consentito ai militari di utilizzare Claude in modi che i civili non potevano, comprese operazioni militari e analisi di “informazioni di intelligence straniera raccolte legalmente”.

Fino a poco tempo fa, Anthropic era tra i pochi concorrenti del settore tecnologico approvati per fornire il suo modello di intelligenza artificiale a sistemi militari segreti. Il disaccordo ha portato il Pentagono a spostare il lavoro di Claude su Gemini di Google, ChatGPT di OpenAI e Grok di Elon Musk.

La causa di Anthropic sostiene che le azioni dell’amministrazione Trump hanno danneggiato la sua reputazione, “hanno messo a repentaglio centinaia di milioni di dollari” in contratti con altre imprese e hanno cercato di “distruggere il valore economico creato da una delle società private in più rapida crescita al mondo”.

Al contrario, la lotta ha rafforzato la reputazione di Anthropic tra alcuni clienti e lavoratori del settore tecnologico che si sono schierati con il rifiuto dell’azienda di piegarsi alle pressioni dell’amministrazione Trump. La posizione morale di Amodei è venuta alla ribalta quando il suo acerrimo rivale, il CEO di OpenAI Sam Altman, ha tentato di sostituire Claude del Pentagono con ChatGPT. Fu una mossa che Altman ammise in seguito apparve affrettata e opportunistica.

I download consumer di Claude sono aumentati e la sua popolarità è aumentata per la prima volta rispetto ai più noti ChatGPT e Gemini.

Il modo in cui le aziende adeguano i propri guardrail continua a risuonare nella competizione per trattenere i talenti nel settore dell’intelligenza artificiale. Caitlin Kalinowski, responsabile della robotica di OpenAI, si è dimessa in seguito all’accordo con il Pentagono di OpenAI.

“Non è stata una decisione facile”, ha detto Kalinowski sui social media durante il fine settimana. ha scritto. “L’intelligenza artificiale ha un ruolo importante nella sicurezza nazionale. Ma la sorveglianza degli americani senza controllo giudiziario e l’autonomia letale senza il consenso umano sono linee che meritano ulteriore considerazione.”

Un altro gruppo di oltre 30 importanti sviluppatori di intelligenza artificiale presso OpenAI e Google, tra cui Jeff Dean, capo scienziato di Google e capo della ricerca sull’intelligenza artificiale, lunedì ha presentato una memoria legale a sostegno di Anthropic.

“La sicurezza nazionale non può essere garantita identificando incautamente i partner tecnologici americani dell’esercito come un ‘rischio della catena di fornitura’ o sopprimendo il discorso pubblico sulla sicurezza dell’intelligenza artificiale”, si legge nel dossier dei lavoratori, che affermano di agire a titolo personale.

Copyright © 2026 dell’Associated Press. Tutti i diritti riservati.

Collegamento alla fonte