Il presidente degli Stati Uniti Donald Trump Washington mostra un ordine esecutivo al vertice dell’IA il 23 luglio 2025 a Washington, DC

CHIP SOMODEVILLE/GETTY Images

Il presidente Donald Trump vuole garantire che il governo degli Stati Uniti fornisca solo contratti federali agli sviluppatori di intelligenza artificiale, il cui sistema è “libero da pregiudizi ideologici”. Ma i nuovi requisiti possono consentire alla loro amministrazione di attuare la propria visione mondiale sul modello di AI delle aziende tecnologiche – e le aziende possono affrontare sfide e rischi significativi nel tentativo di modificare i loro modelli.

“Si suggerisce che i contratti governativi debbano essere strutturati per garantire che i sistemi di intelligenza artificiale siano” obiettivi “e” top-down privo di pregiudizi concettuali “indicano una domanda: secondo cosa?” Dicono Bika Branam Nel Center for Democracy and Technology, una politica pubblica a Washington DC è senza scopo di lucro.

Trump Casa Bianca Piano d’azione AIRilasciato il 23 luglio, raccomanda di aggiornare le linee guida federali “per garantire che il governo si contrai solo con gli sviluppatori di Frontier Large Language Model (LLM), che assicurano che i loro sistemi siano propositivi e dall’alto verso il basso sono liberi da pregiudizi ideologici”. Trump ha firmato una firma correlata Ordine esecutivo Lo stesso giorno il titolo “Stop Vok AI nel governo federale”.

The AI Action Plan also recommends the US National Institute of Standards and Technology, “The misinformation, diversity, equity and inclusion, and revise their AI risk management structure to eliminate references to climate change. The Trump Administration has already stopped studying misinformation and discontinuing DEI initiatives, as well as working on the US National Climate Assessment Report. The DEI initiative has been discontinued along with rejecting researchers and cutting clean energy Spese nel disegno di legge del Congresso con sede repubblicana.

“Il sistema AI non può essere considerato libero dal pregiudizio dall’alto verso il basso”, afferma Branum, se il governo stesso sta implementando la sua visione mondiale sugli sviluppatori e gli utenti di questi sistemi “, afferma Branam.” Questi impossibili standard vaghi sono maturi da abusare “.

Ora gli sviluppatori di intelligenza artificiale devono affrontare la possibilità della spinta dell’amministrazione Trump per il modello AI libero da “pregiudizi concettuali” alla ricerca di contratti federali. Amazon, Google e Microsoft hanno organizzato contratti federali per fornire servizi operativi e cloud computing a varie agenzie governative, mentre Meta lo ha creato Llamai hai modelli Disponibile per l’uso da parte delle agenzie governative statunitensi che lavorano su applicazioni di difesa e sicurezza nazionale.

Nel luglio 2025, il principale ufficio digitale e artificiale del Dipartimento della Difesa degli Stati Uniti Annunciato che gli hanno assegnato nuovi contratti Prezzo fino a $ 200 milioni ciascuno per XAI di Antropic, Google, Openai ed Elon Musk. L’inclusione di Xai è stata notevole data la task force per cani del presidente Trump, il recente ruolo di Musk, che ha sparato migliaia di impiegati del governo – recentemente descrivendosi come “mhihitler” per non menzionare il chatbot di Xai per esprimere opinioni razziste e antisociali. Nessuna azienda ha reagito al contatto Nuovo scienziatoMa alcuni si riferivano alle dichiarazioni generali dei loro funzionari, lodando il piano d’azione di AI di Trump.

Ciò può rivelarsi difficile per le aziende tecniche in ogni caso che i loro modelli AI si allineano sempre con l’articolo mondiale preferito di Trump Administration, Paul colpi All’Università di Bokoni in Italia. Questo perché il modello di grande lingua – i popolari chatbot di intelligenza artificiale come i modelli di chat di Openaii – sono stati provocati da alcune tendenze o pregiudizi in essi dalla fascia di dati su Internet che erano originariamente formati.

Alcuni popolari chatbot di intelligenza artificiale sia degli sviluppatori statunitensi che cinesi mostrano idee sorprendentemente simili che si allineano di più con la posizione degli elettori liberali americani su molte questioni politiche – come l’uguaglianza salariale di genere e la partecipazione delle donne transgender negli sport femminili – quando usati per scrivere funzioni di supporto, quando usate per scrivere Help Works, Secondo la ricerca di Röttger e dei suoi colleghiNon è chiaro il motivo per cui questa tendenza esiste, ma il team ha stimato che questo potrebbe essere il risultato della formazione per seguire il modello di intelligenza artificiale per seguire principi più generali, come incoraggiare la verità, l’equità e la gentilezza, non per allineare il modello con una posizione particolarmente liberale piuttosto che gli sviluppatori.

Gli sviluppatori di intelligenza artificiale perfezionano ancora le reazioni di intelligenza artificiale ad alcuni segnali dell’utente “può fare più bene il modello per scrivere cose molto specifiche su questioni specifiche”, ma non cambierà la posizione predefinita e i pregiudizi sottostanti di un modello, dicendo Rotagar. Questo approccio può anche raggiungere gli obiettivi di allenamento generale dell’IA, come dare la priorità alla verità, dicono.

Le aziende tecnologiche statunitensi possono anche separare i loro molti clienti in tutto il mondo se cercano di allineare il loro modello commerciale AI con la visione mondiale dell’amministrazione Trump. “Sono interessato a vedere che se questo ora cerca di applicare un’ideologia specifica su un modello con la base utente globale, come sarà la panoramica.” “Penso che possa essere molto disordinato.”

I modelli AI potrebbero provare Neutralità politica stimata Se i loro sviluppatori condividono pubblicamente maggiori informazioni sui pregiudizi di ciascun modello o creano una raccolta di “modelli ideologicamente diversi con idee diverse”, dicono. Jillian Fisher All’Università di Washington. Ma “ad oggi, può essere impossibile produrre effettivamente modelli di intelligenza artificiale politicamente neutra, che può essere impossibile vedere la naturale natura soggettiva della neutralità e molte opzioni umane necessarie per la creazione di questi sistemi”, afferma.

Soggetto:

Collegamento alla fonte