Dietro tutto questo c’è un’altra domanda: le aziende tecnologiche dovrebbero vietare cose che sono legali ma che trovano moralmente discutibili? Il governo ha certamente visto la volontà di Anthropic di svolgere questo ruolo inaccettabile. Venerdì sera, otto ore prima che gli Stati Uniti lanciassero gli attacchi su Teheran, il segretario alla Difesa Pete Hegseth ha rilasciato commenti duri su X. “Anthropic ha tenuto una lezione magistrale sull’arroganza e il tradimento”, ha scritto, e ha fatto eco all’ordine del presidente Trump al governo di smettere di lavorare con la società di intelligenza artificiale dopo che Anthropic ha chiesto che il suo modello di cloud venisse bloccato dall’uso per armi autonome o sorveglianza nazionale di massa. “Il Dipartimento della Guerra dovrebbe avere accesso completo e illimitato ai modelli di Anthropic per ogni scopo legittimo”, ha scritto Hegseth.
Ma fino a quando il contratto completo di OpenAI non rivelerà di più, è difficile non vedere l’azienda seduta su un cliffhanger ideologico, promettendo che fa Il Pentagono la utilizzerà con orgoglio per fare ciò che ritiene giusto, citando la legge come base principale per ciò che può fare con la sua tecnologia.
Ci sono tre cose da considerare qui. Uno è se le posizioni saranno sufficienti per i dipendenti più importanti di OpenAI. Con le aziende di intelligenza artificiale che investono così tanto sul talento, è possibile che alcuni di OpenAI considerino la giustificazione di Altman un compromesso imperdonabile.
La seconda è la campagna di terra bruciata che Hegseth ha promesso di condurre contro Anthropic. Andando oltre l’annullamento del contratto del governo con la società, ha annunciato che sarebbe stato classificato come un rischio per la catena di fornitura e che “qualsiasi appaltatore, fornitore o partner che intrattiene affari con l’esercito degli Stati Uniti non potrà condurre alcuna attività commerciale con Anthropic”. C’è un dibattito significativo sul fatto se questo sia il colpo mortale. giuridicamente possibilee antropico ha Disse Se la minaccia verrà portata avanti verrà perseguito penalmente. Anche OpenAI è venuto alla ribalta contro mossa.
Infine, come farà il Pentagono a rimuovere il cloud – l’unico modello di intelligenza artificiale che utilizza attivamente nelle operazioni classificate? Coinvolto Alcuni in Venezuela, mentre questo invece di Attacchi contro l’Iran? Hegseth ha concesso all’agenzia sei mesi per farlo, durante i quali l’esercito avrebbe gradualmente eliminato il modello di OpenAI così come il modello di Elon Musk. xai.
Ma secondo quanto riferito, Claude lo era usato Gli attacchi contro l’Iran poche ore dopo l’emissione delle sanzioni dimostrano che eliminarle gradualmente sarebbe semplice. Anche se la faida durata mesi tra Anthropic e il Pentagono fosse finita (cosa di cui dubito), ora stiamo guardando l’A.I. del Pentagono. piano di accelerazione Con l’aumento delle tensioni in Medio Oriente come principale banco di prova, le aziende sono sotto pressione affinché abbandonino i confini che una volta tracciavano.
Se hai informazioni da condividere su come si sta svolgendo la situazione, contattami tramite Signal (nome utente: jamesodonnell.22).














