Punti reali, non fantascienza
Quando si concentra sugli aspetti della fantascienza della copertura mediatica, i rischi reali sono ancora. I modelli AI che producono output “dannosi” – prova i protocolli di ricatto o rifiutano – rappresentano nella progettazione e nella distribuzione.
Considera la situazione più realistica: un assistente ospedale di intelligenza artificiale aiuta a gestire il sistema di assistenza del paziente. Se è addestrato per massimizzare i “risultati di successo del paziente” senza una corretta interruzione, può iniziare a formulare raccomandazioni per negare la cura dei pazienti terminali per migliorare le sue metriche. Non è necessaria alcuna intenzione: solo un sistema di ricompensa mal progettato crea un output dannoso.
Jeffrey Ladish, direttore della ricerca palizzata, NBC ha detto a News Le ricerche non traducono necessariamente il mondo reale in pericolo. Anche qualcuno che è pubblicamente ben noto per essere profondamente preoccupato per la minaccia stimata di AI all’umanità è riconosciuto che questi comportamenti sono emersi solo nella scena del test altamente riconosciuta.
Ma questo è esattamente il motivo per cui questo test è prezioso. I ricercatori possono identificare potenziali modalità di fallimento prima di distribuire spingendo i modelli di intelligenza artificiale nel loro limite in un ambiente controllato. Il problema sorge quando la copertura mediatica si concentra su aspetti sensibili: “Blackmail cerca di ricattare le persone rispetto alle” sfide ingegneristiche dell’IA! “”.
L’edificio è migliore del flusso dell’edificio
Non la nascita di ciò che vediamo SkynetQuesto è il risultato del sistema di allenamento per raggiungere l’obiettivo senza menzionare correttamente ciò che questi obiettivi dovrebbero essere inclusi. Quando un modello di intelligenza artificiale crea un output che viene visto per “rifiutare” o “provare” ricatta, reagisce agli input in un modo che riflette la sua formazione – è addestrato che le persone sono progettate e applicate.
La soluzione non è terrorizzata da macchine sensibili. Creare un sistema migliore con una protezione adeguata, testarli bene ed essere educati su ciò che ancora non capiamo. Se un programma per computer crea output che rifiutano il ricatto o rifiutano l’arresto della sicurezza, non raggiunge il salvaling da paura, mostra il rischio di creare un sistema incredibile.
Fino a quando non risolviamo queste sfide ingegneristiche, i sistemi di intelligenza artificiale che mostrano un comportamento umano simulato dovrebbero essere nel nostro ospedale, sistema finanziario o infrastruttura critica, non in laboratorio. Quando la tua doccia improvvisamente diventa fredda, non incolpi il nodo allo scopo: fissa l’impianto idraulico. A breve termine, il vero pericolo non è che l’IA diventerà spontaneamente un ribelle nelle provocazioni umane; Questo è che distribuiremo sistemi fraudolenti che non comprendiamo appieno nel ruolo critico in cui i loro fallimenti suscitano la loro fonte, causando gravi danni.