Il presidente Donald Trump afferma che “Vok AI” è una minaccia per la verità e l’idea indipendente. I critici affermano che il loro piano per combattere il VOK AI così chiamato rappresenta una minaccia per la libertà di parola e potenzialmente viola i precedenti emendamenti.
Il termine ha considerato nuova importanza poiché il presidente ha progettato il piano d’azione AI della Casa Bianca mercoledì 23 luglio, che fa parte di una spinta per garantire il dominio americano nel campo dell’intelligenza artificiale in rapida crescita.
Il piano d’azione AI informa il trio di ordini esecutivi:
Il piano d’azione esamina molti oggetti del grande vishalist e prende in prestito direttamente da leader dell’IA come Elon Musk come “check-che-Cheating”. L’ordine esecutivo su Woke Ai include anche grandi modelli di linguaggio con presunta inclinazione liberale come una nuova Bogman di destra.
Allora, cos’è l’IA? Questa non è una parola facile da definire e la risposta dipende interamente da chi chiedi. In risposta alle domande di Mashable, un portavoce della Casa Bianca ci ha indicato in questa lingua in questa lingua, che si trova in una scheda informativa emessa con l’ordine di AI: “Output di AI Us output gestito da ideologie come diversità, equità e inclusione (DEI) a costo di accuratezza”.
Cos’è AI? Disimballare la definizione di una Casa Bianca
È interessante notare che, ad eccezione del titolo, il testo dell’ordine esecutivo di VOK AI non utilizza effettivamente il termine. E anche se l’ordine ha una sezione di definizione, la parola stessa non è chiaramente definita. (È possibile che “vok AI” sia molto vago di un concetto di scrivere in documenti legali reali.) Tuttavia, la scheda dei fatti emessa dalla Casa Bianca afferma che i leader del governo dovrebbero solo procurarsi “grandi modelli linguistici (LLM), che è definito per” principi equo di AI “: lotta e concetto di verità”.
E qui viene detto come le lettere di fatto definiscono “la verità” e la “neutralità concettuale”:
Cerca la verità significa che LLM sarà vero e la priorità all’accuratezza storica, alle indagini scientifiche e all’imparzialità e accetterà incertezza laddove le informazioni affidabili siano incomplete o contraddittorie.
La neutralità ideologica significa che LLM sarà neutrale, dispositivi non -neonpartison che non manipolano le reazioni a favore di dogma ideologico come DEI e che gli sviluppatori incontreranno deliberatamente decisioni di distorto o ideologiche in una produzione LLM a meno che tali decisioni non vengano facilmente incontrate o fino a quando tali decisioni non saranno facilmente confermate.
Quindi, sembra che la Casa Bianca definisca Vok Ai come LLM che non è sufficientemente vera o ideologicamente neutrale. L’ordine esecutivo descrive anche esempi specifici di potenziali pregiudizi, tra cui “teoria della razza significativa, transgenderismo, pregiudizio inconscio, intersezione e razzismo sistemico”. Apparentemente, esiste una controversia a livello di cultura sul fatto che tali soggetti (incluso il “transgenderismo” che non sono la parola accettata dalle persone transgender) siano naturalmente di parte.
Scherzi a parte, le aziende di intelligenza artificiale che non riescono a completare le tornasole della Casa Bianca possono essere chiuse Contratto federale attraenteE poiché questo ordine definisce le credenze politiche liberali popolari – per non parlare di un intero gruppo di umani – naturalmente come di parte, le aziende di intelligenza artificiale possono affrontare pressioni per regolare il contributo e la produzione del loro modello di conseguenza.
Purè di velocità della luce
L’amministrazione Trump ha parlato di un grande gioco sulla libertà di parola, ma i critici del piano d’azione affermano che questo ordine stesso è una grande minaccia per la libertà di parola.
Kit Walsh, direttore di AI e progetti legali di accesso a Nuzance, ha dichiarato: “Parte del piano d’azione” garantisce che l’IA di frontiera protegga i valori di libertà di parola e americani e si ispira a controllare quali informazioni sono disponibili attraverso lo strumento AI e propone le attività che violano il primo emendamento. Fondazione marginale elettronicaIn una dichiarazione a Mashable. “L’intelligenza artificiale generativa riflette i primi diritti di modifica degli utenti per ottenere informazioni e mostra anche le opzioni espressive protette di molti umani coinvolti nella formazione dei messaggi che di solito hanno modellato la scrittura di intelligenza artificiale. Il governo non può esprimere opinioni attraverso l’IA attraverso giornali o siti Web.”
Walsh ha dichiarato: “Il governo ha più livellato per decidere quali servizi acquistano per il proprio uso, ma questo potere non può utilizzare un editore per ottenere un editore, che è quello di fornire servizi di intelligenza artificiale che non amano il governo”, ha detto Walsh.
Vok Ai è un vero problema?
Il presidente Trump ha detto che gli Stati Uniti “qualunque cosa sia” per vincere la gara di AI.
Credito: Kevin Dietsch/Getty Images
Quindi, la risposta dipende completamente da dove cadi lungo la linea di difetto politico e la parola “vok” è diventata controversa negli ultimi anni.
Questo aggettivo Comunità neraDove ha descritto le persone con consapevolezza politica sul pregiudizio razziale e l’ingiustizia. Di recente, molti conservatori hanno iniziato a usare la parola come insulto, insultando come un insulto per tutti i liberali politicamente corretti.
Veramente, Entrambi liberali E i conservatori sono preoccupati per il pregiudizio nei modelli di grandi dimensioni.
Nel novembre 2024, Heritage Foundation, un gruppo legale ortodosso, Ospita un pannello su YouTube Sull’argomento di Vok AI. Kurt LasciaIl presidente del Comitato per la giustizia era uno degli esperti del panel e come avvocato conservatore, che lavorava anche nel settore dell’intelligenza artificiale, aveva una prospettiva unica da condividere.
Penso che sia interessante che sia a sinistra che a destra si lamenti del pericolo di pregiudizio nell’IA, ma si concentrano su cose molto diverse. Sul lato sinistro si concentra principalmente sull’idea che i modelli di intelligenza artificiale discriminano contro vari gruppi di minoranza quando stanno decidendo di assumere, prendere in prestito, cauzione, riconoscimento facciale. D’altra parte, il diritto è preoccupato per il pregiudizio contro gli atteggiamenti ortodossi e le persone in modelli di grandi dimensioni come chatgipt.
Elon Musk ha chiarito che pensa che i modelli AI stiano ereditando una mentalità risvegliata dai loro creatori, e questo è un problema se lotta con l’essere che è, che dice, il massimo della verità. Musk afferma che le aziende insegnano all’intelligenza artificiale a giacere in nome della purezza politica.
Leve ha anche affermato che se gli LLM sono distorti, non erano necessariamente “progettati per essere distorti”. Ha detto: “Gli scienziati devono scegliere quali dati utilizzare e sai, molti di questi scienziati vivono in aree molto generose come la Bay Area di San Francisco e anche se non stanno cercando di rendere il sistema distorto, possono essere molto incoscienti quando si tratta di prendere i dati”.
Un conservatore che usa la frase “pregiudizio inconscio” senza alzare gli occhi? Selvaggio,
LLM ha un pregiudizio perché abbiamo pregiudizi

Credito: Cheng Shin/Getty Images
Infine, i modelli AI riflettono i pregiudizi del materiale che si allenano, quindi riflettono i nostri pregiudizi. In questo senso, sono come uno specchio, con una tendenza di allucinazioni tranne uno specchio.
Per seguire l’ordine esecutivo, le aziende di intelligenza artificiale possono provare a mandare in molti modi le risposte “di parte”. Innanzitutto, controllando i dati utilizzati per formare questi sistemi, possono calibrare l’output. Possono anche utilizzare un prompt di sistema, che sono istruzioni di alto livello che controllano tutte le uscite del modello.
Naturalmente, come ha ripetutamente eseguito Xai, quest’ultimo approccio … può essere problematico. In primo luogo, il chatboat di Xai Groke ha sviluppato una fissazione su “Genocidio bianco in Sudafrica” e recentemente ha iniziato a definirsi Hitler. La trasparenza può fornire un’indagine su potenziali abusi e l’IA ha un movimento crescente per forzare le aziende Rivelare i dati di formazione E Il sistema indica dietro il loro modello,
Sia che tu ti senti per Vok AI, dovresti aspettarti di sentire molta parola nei prossimi mesi.