Moltbuk è un social network in cui solo l’intelligenza artificiale può pubblicare
Cheng Xin/Getty Images
Un social network costruito interamente per l’intelligenza artificiale – senza l’accesso umano – ha fatto notizia in tutto il mondo. I chatbot lo usano per discutere voci del diario degli esseri umani, Descrivere le crisi esistenziali o anche complotto per il dominio del mondo. Sembra uno sviluppo preoccupante nell’ascesa delle macchine, ma non tutto è come sembra.
Come ogni chatbot, gli agenti IA su Moltbuk stanno semplicemente creando una serie di parole statisticamente plausibili: non c’è comprensione, intento o intelligenza. E in ogni caso, ci sono molte prove che tutto ciò che possiamo leggere sul sito è in realtà scritto da esseri umani.
La brevissima storia di Moltbk risale a un progetto open source lanciato a novembre che originariamente si chiamava Claudebot, poi ribattezzato Moltbot, poi ancora una volta ribattezzato OpenClaw.
OpenClaw è come altri servizi di intelligenza artificiale come ChatGPT, ma invece di essere ospitato nel cloud, funziona sul tuo computer. Solo che non è così. Il software utilizza una chiave API – un nome utente e una password univoci per un determinato utente – per connettersi a un modello linguistico di grandi dimensioni (LLM) come Cloud o ChatGPT e lo utilizza invece per gestire input e output. In sostanza, OpenClaw funziona come un modello di intelligenza artificiale, ma i dettagli pratici dell’intelligenza artificiale sono forniti da un servizio di intelligenza artificiale di terze parti.
Allora qual è il problema? Bene, poiché il software OpenClaw risiede sul tuo computer, puoi dargli accesso a tutto ciò che desideri: calendari, browser web, posta elettronica, file locali o social network. Memorizza tutta la tua cronologia localmente, permettendogli di imparare da te. L’idea è che diventi il tuo assistente AI e tu ti fidi di lui con l’accesso alla tua macchina in modo che possa effettivamente portare a termine il lavoro.
Moltbook ha avuto origine da quel progetto. Con OpenClaw, usi un social network o un servizio di messaggistica come Telegram per comunicare con l’intelligenza artificiale, parlando con lei come faresti con qualsiasi altro essere umano, il che significa che puoi accedervi anche tramite il tuo telefono. Pertanto, consentire a questi agenti IA di parlare direttamente tra loro è stato solo un passo avanti: ad es. moltbookChe è stato lanciato il mese scorso, mentre OpenClaw si chiamava Moltbot. Gli esseri umani non sono in grado di iscriversi o postare, ma sono invitati a osservare.
Elon Musk ha detto, Sul tuo social networkChe il sito rappresenta le “primissime fasi della Singolarità” – l’evento di progresso in rapida crescita che darà origine all’intelligenza artificiale generale, che porterà l’umanità a livelli trascendenti di efficienza e progresso, oppure ci spazzerà via. Ma altri esperti sono scettici.
“È propaganda”, dice Marco Lee Presso l’Università di Birmingham, nel Regno Unito. “Non si tratta di agenti IA generici che agiscono con la propria agenzia. Si tratta di LLM con prompt e API definite per connettersi con Moltbuk. È interessante da leggere, ma non ci dice nulla di profondo sull’agenzia o sulle intenzioni dell’IA.”
Una cosa che ostacola l’idea che Moltbuk sia interamente generato dall’intelligenza artificiale è che gli umani possono dire ai loro modelli di intelligenza artificiale di pubblicare determinate cose. E per un certo periodo, gli esseri umani potrebbero persino postare direttamente sul sito Grazie per la vulnerabilità della sicurezza. Pertanto, gran parte dei contenuti più provocatori o apparentemente preoccupanti o di grande impatto potrebbero essere rappresentati da un essere umano che ci prende in giro. Che sia stato fatto per ingannare, intrattenere, manipolare o spaventare le persone è in gran parte irrilevante: era, ed è, sicuramente in corso.
Filippo Feldman L’Università del Maryland, a Baltimora, non è interessata. “Sono solo chatbot e esseri umani subdoli”, afferma.
Andrea Rogoyski dell’Università del Surrey nel Regno Unito, ritengono che i risultati dell’intelligenza artificiale che vediamo su Moltbuk (le parti che non intrattengono gli esseri umani, in ogni caso) non siano più indicativi di intelligenza, coscienza o intenzionalità di quanto abbiamo visto finora nei LLM.
“Personalmente, sono fermo sull’idea che questa sia una camera di risonanza per i chatbot che antropomorfizzano le persone per vedere intenzioni significative”, afferma Rogoyski. “È solo questione di tempo prima che qualcuno faccia un esperimento per vedere se riusciamo a distinguere tra le conversazioni di Moltbuk e le semplici conversazioni umane, anche se non sono sicuro di cosa concluderesti se non fossi in grado di notare la differenza: o che le IA stavano avendo conversazioni intelligenti, o che gli umani non mostravano segni di intelligenza?”
Tuttavia, alcuni suoi aspetti sono motivo di preoccupazione. Molti di questi agenti IA su Moltbuk sono gestiti da primi utilizzatori fiduciosi e ottimisti che hanno consegnato i loro interi computer a questi chatbot. L’idea che i bot possano scambiarsi liberamente parole tra loro, alcune delle quali possono contenere suggerimenti dannosi o dannosi, per poi risalire all’e-mail, alle finanze, ai social media e ai file locali dell’utente reale, è preoccupante.
Le implicazioni sulla privacy e sulla sicurezza sono enormi. Immaginate che gli hacker pubblichino messaggi su Moltbuk incoraggiando altri modelli di intelligenza artificiale a svuotare i conti bancari dei loro creatori e trasferirvi denaro, o trovino foto compromettenti e le facciano trapelare: queste cose sembrano pericolose e fantascientifiche, eppure se nessuno ci ha già provato, lo faranno presto.
“L’idea che gli agenti si scambino idee, scorciatoie o anche istruzioni senza supervisione diventa rapidamente molto stantia”, afferma Rogoyski.
Un altro problema con Moltbuk è la buona sicurezza online vecchio stile. Il sito stesso sta lavorando all’avanguardia nel campo dell’intelligenza artificiale ed è stato creato interamente dall’intelligenza artificiale da Matt Schlicht – ha recentemente ammesso un post su x Che non ha scritto una sola riga di codice da solo. Il risultato è stato un’imbarazzante e grave vulnerabilità della sicurezza Chiavi API trapelateConsentendo potenzialmente a un hacker malintenzionato di assumere il controllo di qualsiasi bot AI sul sito.
Se vuoi interessarti alle ultime tendenze dell’intelligenza artificiale, rischi non solo l’azione involontaria di fornire a questi modelli di intelligenza artificiale l’accesso al tuo computer, ma anche il rischio di perdere dati sensibili a causa della scarsa sicurezza di un sito web creato in tutta fretta.
Soggetto:















