Si prevede che le versioni di addestramento dei modelli di intelligenza artificiale su dati classificati li renderanno più accurati ed efficaci in determinati compiti, secondo un funzionario della difesa statunitense che ha parlato dei retroscena. Revisione della tecnologia del MIT. La notizia arriva mentre la domanda per modelli più potenti è elevata: il Pentagono ha stretto accordi con OpenAI e XAI di Elon Musk per far funzionare i suoi modelli in ambienti classificati e sta implementando un nuovo ordine del giorno Diventare “una forza combattente ‘AI-first'” mentre il conflitto con l’Iran si intensifica. (Il Pentagono non aveva commentato i suoi piani di addestramento sull’intelligenza artificiale al momento della pubblicazione.)

La formazione sarà condotta in un data center sicuro, accreditato per ospitare progetti governativi classificati e dove una copia del modello di intelligenza artificiale sarà abbinata a dati classificati, secondo due persone che hanno familiarità con il funzionamento di tali operazioni. Anche se il Dipartimento della Difesa rimarrà il proprietario dei dati, in rari casi il personale delle società di intelligenza artificiale con adeguate autorizzazioni di sicurezza potrà accedere ai dati, ha affermato il funzionario.

Tuttavia, prima di consentire questa nuova formazione, il funzionario ha affermato che il Pentagono vuole valutare quanto accurati ed efficaci siano i modelli quando addestrati su dati non classificati, come le immagini satellitari disponibili in commercio.

L’esercito utilizza da tempo modelli di visione artificiale, una vecchia forma di intelligenza artificiale, per identificare oggetti in immagini e filmati raccolti da droni, aeroplani e agenzie federali appalti aggiudicati Le aziende addestrano modelli di intelligenza artificiale su tali contenuti. E le aziende di intelligenza artificiale che realizzano modelli linguistici di grandi dimensioni (LLM) e chatbot hanno creato versioni dei loro modelli per il lavoro governativo, come Cloud Gov di Anthropic, progettato per operare in più lingue e ambienti sicuri. Ma i commenti del funzionario sono il primo segnale che le aziende di intelligenza artificiale che creano LLM, come OpenAI e XAI, possono addestrare versioni specifiche del governo dei loro modelli direttamente su dati classificati.

Alok Mehta, che dirige il Wadhwani AI Center presso il Center for Strategic and International Studies e in precedenza ha guidato gli sforzi politici sull’IA presso Google e OpenAI, afferma che la formazione sui dati classificati, piuttosto che limitarsi a rispondere a domande al riguardo, introdurrà nuovi rischi.

Collegamento alla fonte