“L’intelligenza artificiale ha molti risultati”, ha detto. “Ma penso che sia la ricerca più automatica. Quando guardiamo alla storia umana, sono molti progressi tecnologici, sulla creazione di nuove tecniche sugli umani. Quando i computer possono sviluppare nuove tecniche, sembra un punto di afflusso molto importante.

“Vediamo già questi modelli aiutare gli scienziati. Ma quando sono in grado di lavorare all’orizzonte per molto tempo – quando sono in grado di stabilire programmi di ricerca per se stessi – il mondo si sentirà significativo.”

Per le catene, la capacità di lavorare a lungo è importante per il modello. “Voglio dire, penso che tutti abbiano le sue definizioni di AGI”, ha detto. “Ma questo concetto di tempi autonomi – solo la quantità di tempo che il modello può spendere per fare progressi produttivi su un problema difficile senza uccidere un vicolo cieco – questa è una delle grandi cose che siamo in seguito.”

Questa è una visione dell’avventura – ed è al di là delle capacità dei modelli di oggi. Ma sono ancora stato ucciso da come la catena e Pachoki hanno reso l’AGI suona quasi mondana. Confronta questo con il modo in cui Sutaskewar ha risposto quando gli parlavo 18 mesi fa. “È un monumentale, raccolta della terra”, mi ha detto. “Ce ne saranno uno prima e uno dopo.” Di fronte alla vastità di ciò che stava costruendo, Sutskever ha cambiato la sua carriera per progettare modelli sempre migliori, per scoprire come controlla una tecnica che credeva che presto sarebbe stato più intelligente di se stesso.

Due anni fa, Sutskever stabilì ciò che aveva detto a un team di superssegnamento di co-protrina con un altro ricercatore di sicurezza Openi, Jan Leike. L’affermazione era che questa squadra è una parte completa delle risorse del team per scoprire come controllare un sovrintendente immaginario. Oggi, la maggior parte delle persone della squadra, tra cui Sutskever e Leike, hanno lasciato la compagnia e il team non è più presente.

Quando Leic se ne andò, disse che era perché la squadra non era supportata che sentiva che fosse degno. Hanno pubblicato Questo su x: “La costruzione di macchine intelligenti-umane è uno sforzo naturalmente pericoloso. Openi sta dando un’enorme responsabilità a nome di tutta l’umanità. Ma negli anni precedenti, la cultura e i processi di sicurezza hanno preso un sedile posteriore per prodotti luccicanti.” Altri ricercatori defunti hanno condiviso dichiarazioni simili.

Ho chiesto a Chen e Pachoki cosa fanno tali preoccupazioni. “Molte di queste cose sono decisioni altamente personali”, ha detto Chen. “Sai, un ricercatore può essere così, sai-“

Ha ricominciato. “Potrebbero credere che quest’area si svilupperà in un certo modo e la loro ricerca sta per fare la panoramica e tollerare i frutti. E, sai, l’azienda potrebbe non prendere più forma nel modo in cui lo desideri. È un campo molto dinamico.”

Collegamento alla fonte