L’ascesa dell’intelligenza artificiale ha aumentato la domanda di data center come questo a Londra

Jason Alden/Bloomberg tramite Getty Image

Se qualcuno ce la fa, tutti muoiono
Eliser Yudcovsky e Nat Torea (Bodley Head, Regno Unito; Little, Brown, USA)

Nella totalità dell’esistenza umana, ci sono molte cose da preoccuparsi per noi. Trovare problemi di denaro, cambiamento climatico, amore e felicità per molte persone rango eccessivo nell’elenco, ma per qualcosa di dedicato, una preoccupazione sorge soprattutto: questa intelligenza artificiale alla fine distruggerà l’umanità.

Eliser Yudkovsky Il motivo per un quarto di secolo presso il Machine Intelligence Research Institute (Miri) in California è stato perseguito, se un po ‘è dedicato. Quindi siamo entrati nell’era di Chatgate e le loro opinioni sulla sicurezza dell’IA sono state enfatizzate nel mainstream, che sono state equamente echeggiate da amministratori delegati e politici tecnici.

Scrivi con Nat soreceAnche in miri, Se qualcuno ce la fa, tutti muoiono Yudkovski ha tentato di separare la sua argomentazione in un messaggio semplice e facilmente digeribile che verrà sollevato nella società. Ha pienamente successo in questo obiettivo, i post e le opinioni di blog già a lungo termine bloccate negli articoli Vicky sono stati bloccati in un libro altamente leggibile, da celebrità come Stephen Fry e Mark Raffalo, da tutte le persone che vanno dalle politiche, tra cui Fiona Hill e Ben Bernanke, dal pesante delle politiche. Il problema è che, quando si forza, l’argomento è approssimativamente imperfetto.

Prima di spiegare perché, credo di non aver dedicato la mia vita a considerare il problema, che Yudkovski ha. Ma in modo uniforme, non lo sto licenziando senza pensare. Ho seguito il lavoro di Yudkovski per molti anni e hanno una mente molto interessante. Ho anche letto e apprezzato molto, la sua storia di fan di 660.000 parole Harry Potter e metodi di logismoIn cui spia la filosofia della comunità razionalista, che ha profonde relazioni con la sicurezza dell’IA e movimenti filantropici efficaci.

Questi tre movimenti hanno tentato di raggiungere il loro modo di vedere il mondo con i primi principi, che applicano logica e prove per determinare i modi migliori di essere. Quindi Yudkovsky e piaghe, come buoni razionalisti, iniziano Se qualcuno ce la fa, tutti muoiono Anche dai primi principi. Il capitolo iniziale suggerisce che non vi è nulla nelle regole della fisica che impedisce l’emergere di intelligenza che è meglio degli umani. Questo, penso, è completamente incontrollato. Il capitolo seguente fornisce quindi un’ottima spiegazione di come il Power Chatgpt è reso come un modello di linguaggio di grandi dimensioni (LLMS). “Sia LLM che esseri umani sono macchine che producono frasi, ma sono state modellate da diversi processi per fare lavori diversi”, afferma la coppia, sono in pieno accordo.

Il terzo capitolo è il luogo in cui iniziamo la deviazione. Yudkovski e le herpes descrivono come l’AIS inizierà a comportarsi come “vogliono” cose, mentre domande filosofiche molto reali che bruciano la domanda che possiamo effettivamente dire “voglio una macchina”. Si riferiscono a un test del modello O1 di OpenAI, che ha dimostrato accidentalmente un comportamento inaspettato per completare la sfida “impossibile” della sicurezza informatica, indicando il fatto che non ha “sconfitto” come segno di comportamento del modello in quanto voleva avere successo. Personalmente, trovo difficile leggere qualsiasi tipo di ispirazione in questo scenario: se manteniamo una diga in un fiume, il fiume non “lascerà” i suoi sforzi per aggirarlo, ma i fiumi non hanno bisogno di nulla.

I prossimi capitoli sono conosciuti come problema di allineamento dell’IA, sostenendo che l’IA vuole AI una volta, sostenendo che sarebbe impossibile allineare i loro obiettivi con l’umanità e che un Soprintendente AI vorrebbe alla fine consumare tutte le possibili questioni ed energia per far avanzare le sue ambizioni. L’idea è stata resa popolare dal primo filosofo Nick Bostrom come una “clip di carta massimizzando”, che crede che un’intelligenza artificiale ha lavorato per creare una clip di carta, alla fine tutto proverà a trasformare in clip di carta.

Certo – ma cosa succede se lo chiudiamo? Per Yudkovski e piaghe, questo è impossibile. La loro situazione è che nessuno è sfortunato con la magia AI adeguatamente avanzata (le mie parole, non le loro) e avrà tutti i tipi di modi per prevenire la sua morte. Immaginano tutto, dall’intelligenza artificiale di scrematura, che in criptovaluta per pagare le loro offerte per pagare (penso, ma di nuovo torniamo al problema del “desiderio”) per trovare il primo compito sconosciuto del sistema nervoso umano che gli consente di hackerare direttamente il nostro cervello (penso?

Se investi tali paesaggi, l’IA sembrerà naturale naturalmente. La coppia mostra anche che gli altipiani di AI, poiché il caso sembra essere un caso con l’ultimo modello GPT -5 di OpenAII, può effettivamente comportare un sovrintendente Clandstine per vandalizzare i suoi rivali. Sembra che non ci sia nulla che non ci porti a Doom.

Allora cosa faremo al riguardo? Ci sono molti suggerimenti politici in Yudkovski e piaghe, tutti questi sono sostanzialmente senza senso. Il primo è che le unità di elaborazione grafica (GPU), i chip del computer che hanno gestito l’attuale rivoluzione dell’IA dovrebbero essere vietati pesanti. Dicono che dovrebbe essere illegale per più di otto della Top 2024-Era-E-ep senza monitorare un monitoraggio in stile nucleare da parte di un organo internazionale. Comparativamente, il meta ha almeno 350.000 di questi chip. Una volta implementata, dicono, le nazioni dovrebbero essere preparate ad attuare queste restrizioni bombardando i data center non registrati, anche se è un rischio di guerra nucleare “,Perché i dati possono uccidere più persone delle armi nucleari“(La sua enfasi).

Respirazione scura. Come siamo arrivati ​​qui? Per me, tutto questa è una forma di scommesse di Pascal. Il matematico Blaise Pascal ha annunciato che è stato razionale vivere la tua vita come esiste (cristiano) Dio, sulla base di alcune semplici quantità. Se Dio è presente, la fede ti prepara per i guadagni infiniti in cielo, pur credendo che causi una perdita infinita all’inferno. Se Dio non è presente, va bene, forse perdi un po ‘vivendo una vita santa, ma solo finemente. Il modo per massimizzare la felicità è la fiducia.

Allo stesso modo, se impili il mazzo, supponendo che l’IA conduce a un truffatore infinito, è molto appropriato evitarlo. Questa è la linea di pensiero che motiva i razionalisti a credere che attualmente qualsiasi azione sia appropriata fintanto che porta alla creazione di trilioni di umani felici in futuro, anche se le persone viventi soffrono oggi.

Ad essere sincero, non capisco come chiunque possa passare i loro giorni a pensare in questo modo. Oggi le persone viventi contano. Vogliamo più preoccupazioni. Gli arabi di noi sono minacciati di cambiamenti climatici, un argomento essenzialmente incontrollato Se qualcuno ce la fa, tutti muoionoPreserviamo il sovrintendente AI per la fantascienza, dove si trova, e oggi dediciamo le nostre energie a risolvere i problemi dei fatti scientifici qui.

Collegamento alla fonte