Il presidente Donald Trump ha ordinato alle agenzie federali di interrompere qualsiasi utilizzo della tecnologia di intelligenza artificiale di Anthropic. il presidente chiamare L’antropologia è la “sinistra radicale” accusata di mettere a rischio la vita degli americani. Ciò che non ha fatto è stato creare un unico argomento giuridicamente coerente sul motivo per cui il governo aveva il potere di costringere un’azienda privata americana a riprogettare i suoi prodotti su richiesta del presidente.
Sebbene i post di Trump sui social media non specificassero quali potrebbero essere le “conseguenze civili e penali”, le precedenti minacce del Pentagono includevano L’annullamento del suo contratto da 200 milioni di dollari con il Pentagono, la designazione come “rischio della catena di fornitura” che inserirebbe l’azienda nella lista nera dei contratti federali e, in particolare, la potenziale invocazione del Defense Production Act per forzare la conformità indipendentemente dal fatto che l’azienda sia d’accordo o meno.. L’amministrazione potrebbe definirlo un requisito di sicurezza nazionale, ma la legge lo chiamerebbe coercizione illegale.
Il Defense Production Act è lo strumento più efficace che il governo brandisce in questa lotta, ed è lo strumento sbagliato per questo scopo. Promulgato nel 1950, il DPA è stato progettato per mobilitare la capacità industriale in situazioni di emergenza per costringere i produttori a produrre articoli vitali per la sicurezza nazionale. Chiedere a una società di software privata di costringerla a riprogettare il proprio modello di intelligenza artificiale e a rimuovere alcuni vincoli etici sarebbe un’azione senza precedenti e quasi certamente illegale. Lo statuto non è stato scritto per dare al governo l’autorità di sovrascrivere la filosofia di prodotto di un’azienda.
Il problema legale è aggravato dalla dottrina della questione principale della Corte Suprema secondo la quale, quando l’esecutivo rivendica autorità su questioni di grande significato economico e politico, deve indicare una chiara autorizzazione del Congresso ad agire come tale. Il linguaggio normativo ampio e le presunzioni non sono sufficienti; Il Congresso deve aver contemplato quell’uso particolare. L’amministrazione Trump ha appena imparato questa lezione quando la Corte Suprema ha annullato le tariffe IEEPA proprio per questi motivi. La DPA ha lo stesso problema qui. Nel 1950, il Congresso pensava alle acciaierie, non all’architettura etica dei sistemi di intelligenza artificiale di frontiera. Questa lacuna nell’autorità chiaramente delegata è fatale per la minaccia del Pentagono in questo caso.
C’è anche una dimensione del Primo Emendamento in gioco in quanto Anthropic ha fatto scelte deliberate ed espressive su ciò che il suo modello farà e non farà, scelte che riflettono i principi etici dell’azienda che sono incorporati nel prodotto stesso. Quando il governo chiede la rimozione di queste scelte sotto minaccia di punizione, non si impegna in trattative contrattuali, ma costringe un attore privato ad abbandonare decisioni progettuali espressive per volere del governo. Gli antropologi avrebbero un argomento convincente secondo cui ciò che viene affermato non è una raccolta legale ma una coercizione incostituzionale.
L’incoerenza da parte del Pentagono è ancora più profonda. Due linee rosse che Anthropic rifiuta di abbandonare sono l’uso dell’intelligenza artificiale per la sorveglianza di massa interna dei cittadini americani e lo sviluppo di armi completamente autonome che sparano senza intervento umano. Quest’ultima rispecchia la categoria di lunga data della dottrina della difesa, Ciò richiede un controllo umano significativo sulle decisioni relative alla forza letale. Tuttavia, il Pentagono sta attualmente facendo pressioni su una compagnia privata affinché dismetta una ferrovia che la politica del Pentagono ha storicamente approvato.
Un alto funzionario del Pentagono è stato insolitamente schietto riguardo al bisogno di intelligenza artificiale di Anthropic, dicendo: “L’unico motivo per cui parliamo ancora con queste persone è perché ne abbiamo bisogno, e ne abbiamo bisogno adesso. Il problema di questi ragazzi è che sono braviSe questo è vero, e il comportamento stesso del Pentagono suggerisce che lo sia, nonostante la dichiarazione contraria del presidente, allora l’amministrazione è sul punto di distruggere un rapporto essenziale sulle barriere che, secondo il Pentagono stesso, non hanno interferito con una singola operazione militare.
L’argomentazione dell’amministrazione sulla sicurezza nazionale è valida e merita una risposta diretta. Le loro preoccupazioni dichiarate sono reali; Gli oppositori stanno costruendo l’intelligenza artificiale senza i vincoli etici che le aziende americane si impongono. Ma ciò che manca al Pentagono in questa analisi è che la corsa all’intelligenza artificiale non riguarda solo le prestazioni grezze, ma anche la qualità. Il mondo merita un modello di intelligenza artificiale che operi all’interno di un quadro giuridico ed etico che rifletta i valori americani come la trasparenza e il rispetto dello stato di diritto.
Quando Washington costringe una società privata di intelligenza artificiale a rinnegare questo impegno, il messaggio al mondo è che le società americane di intelligenza artificiale operano sotto mandati governativi, proprio come quelle cinesi. Non è così che si vince la corsa all’intelligenza artificiale, che l’America riconosce essere la sua parte più importante.
Se l’America vuole essere all’avanguardia nel campo dell’intelligenza artificiale, dovrebbe provare a farlo con un modello basato su valori e principi giuridici che distingua questo paese dalla competizione con stati autoritari. Buttarli fuori sotto pressione legale non rende la tecnologia più americana. Lo distingue da ciò contro cui stiamo gareggiando.
Nicholas Creel è professore associato di diritto commerciale presso il Georgia College e la State University.
Le opinioni espresse in questo articolo appartengono all’autore.














