Non è chiaro quali siano le motivazioni di OpenAI. Non è il primo gigante della tecnologia ad abbracciare contratti militari, avendo una volta giurato di non stipularli mai, ma la velocità del cambiamento è stata notevole. Forse è solo una questione di soldi; OpenAI sta spendendo molto nella formazione sull’intelligenza artificiale e sta cercando maggiori entrate (comprese le fonti) Annuncio). O forse Altman crede davvero nel quadro ideologico che spesso invoca: secondo cui le democrazie liberali (e i loro eserciti) dovrebbero avere accesso all’intelligenza artificiale più potente per competere con la Cina.
La domanda più consequenziale è cosa succederà dopo. OpenAI ha deciso che si sente a suo agio nel lavorare nello sporco centro della guerra, mentre gli Stati Uniti intensificano i loro attacchi contro l’Iran (l’intelligenza artificiale sta giocando un ruolo più importante che mai). Quindi, dove potrebbe effettivamente apparire la tecnologia di OpenAI in questa battaglia? E quali applicazioni tollereranno i suoi clienti (e dipendenti)?
obiettivi e attacchi
Sebbene l’accordo con il Pentagono sia in vigore, non è chiaro quando la tecnologia di OpenAI sarà pronta per gli ambienti classificati, poiché dovrà essere integrata con altri strumenti per uso militare (XAI di Elon Musk, che ha recentemente firmato il suo accordo con il Pentagono, dovrebbe seguire lo stesso processo con il suo modello di intelligenza artificiale Grok). Ma c’è pressione per farlo rapidamente a causa della controversia che circonda la tecnologia in uso fino ad oggi: dopo che Anthropic ha rifiutato di consentire che la sua intelligenza artificiale fosse utilizzata per “qualsiasi uso legale”, il presidente Trump ha ordinato ai militari di smettere di usarla, e Anthropic è stata designata come un rischio per la catena di approvvigionamento dal Pentagono. (Anthropic sta lottando contro la designazione in tribunale.)
Se il conflitto con l’Iran è ancora in corso nel momento in cui la tecnologia di OpenAI entrerà nel sistema, per cosa potrà essere utilizzata? La mia recente conversazione con un funzionario della difesa suggerisce che potrebbe assomigliare a questo: un analista umano potrebbe inserire un elenco di potenziali obiettivi in un modello di intelligenza artificiale e chiedergli di analizzare le informazioni e stabilire la priorità su quali attaccare per primi. Il modello può tenere conto delle informazioni logistiche, ad esempio dove si trovano particolari aeromobili o rifornimenti. Può analizzare molti input diversi come testo, immagini e video.
Un essere umano sarà quindi responsabile del controllo manuale di questi output, ha affermato il funzionario. Ma questo solleva una domanda ovvia: se qualcuno sta effettivamente ricontrollando l’output dell’IA, come può questo affinare le decisioni di targeting e attacco?
Da anni l’esercito utilizza un altro sistema di intelligenza artificiale chiamato Maven, in grado di gestire cose come l’analisi automatica delle riprese dei droni per identificare potenziali bersagli. È probabile che i modelli di OpenAI, come il cloud di Anthropic, forniranno un’interfaccia conversazionale su di esso, consentendo agli utenti di interpretare l’intelligence e le raccomandazioni su quali obiettivi attaccare per primi.
È difficile sopravvalutare quanto sia nuovo: l’intelligenza artificiale effettua da tempo analisi per i militari, traendo approfondimenti da oceani di dati. Ma i consigli generici dell’intelligenza artificiale su quali azioni intraprendere nella regione vengono utilizzati seriamente per la prima volta in Iran.
difesa dai droni
Alla fine del 2024, OpenAI ha annunciato una partnership con Anduril, che produce tecnologia per droni e controdroni per l’esercito. L’accordo prevede che OpenAI lavorerà con Anduril per condurre analisi tempestive dei droni che attaccano le forze statunitensi e aiutarle ad abbatterli. Un portavoce di OpenAI mi disse all’epoca che non violava le politiche aziendali, che proibiscono “sistemi progettati per danneggiare gli altri”, perché la tecnologia veniva utilizzata per prendere di mira i droni, non le persone.















