Attualmente, Anthropic e OpenAI contengono un kill switch in grado di fermare la proliferazione di agenti IA potenzialmente dannosi. OpenClaw funziona principalmente sulla loro API, il che significa che i modelli di intelligenza artificiale che eseguono azioni agenti risiedono sui loro server. Il suo repository GitHub raccomandando “Anthropic Pro/Max (100/200) + Opus 4.5 per una potenza di lunga durata e una buona resistenza alla pronta iniezione.”

La maggior parte degli utenti collega i propri agenti al cloud o GPT. Queste aziende possono visualizzare i modelli di utilizzo delle API, i prompt di sistema e le chiamate agli strumenti. In teoria, potrebbero identificare gli account che mostrano comportamenti simili a quelli dei bot e fermarli. Possono contrassegnare richieste di tempo ricorrenti, richieste di sistema che fanno riferimento ad “agente” o “autonomo” o “maltbot”, utilizzo di strumenti ad alto volume con comunicazioni esterne o modelli di interazione del portafoglio. Possono spegnere la chiave.

Se lo facessero domani, la rete OpenClaw crollerebbe parzialmente, ma potenzialmente allontanerebbe alcuni dei suoi clienti più appassionati, che pagano per avere la possibilità di eseguire i loro modelli di intelligenza artificiale.

La finestra per tale intervento dall’alto verso il basso si sta chiudendo. I modelli in lingua madre attualmente non sono altrettanto efficaci dei modelli commerciali di fascia alta, ma il divario si riduce ogni giorno. Mistral, Dipsic, Kuen e altri hanno continuato a migliorare. Entro il prossimo anno o due, eseguire un agente capace su hardware nativo equivalente a Opus 4.5 potrebbe essere fattibile per lo stesso pubblico di hobbisti che attualmente esegue OpenClaw su chiavi API. A quel punto, non ci saranno fornitori da terminare. Nessun monitoraggio dell’utilizzo. Non ci sono termini di servizio. Nessun kill switch.

I fornitori API di servizi di intelligenza artificiale si trovano di fronte a una scelta scomoda. Possono intervenire adesso, anche se l’intervento è ancora possibile. Oppure possono aspettare finché un’imminente epidemia di worm non forza loro la mano, durante il quale l’architettura potrebbe evolversi oltre la loro portata.

Morris Worm convinse la DARPA a finanziare lo sviluppo CERT/CC Alla Carnegie Mellon University, la rete di esperti costituisce un punto centrale di coordinamento per le emergenze. Quella reazione è arrivata dopo la perdita. Nel 1988 c’erano 60.000 computer collegati a Internet. La rete di agenti AI di OpenClaw di oggi conta già decine di migliaia e cresce ogni giorno.

Oggi possiamo considerare OpenClock una “prova di prova” per una sfida ancora più grande in futuro: se le persone iniziano a fare affidamento su agenti di intelligenza artificiale che parlano tra loro ed eseguono compiti, come possiamo impedire loro di auto-organizzarsi in modi dannosi o diffondere istruzioni dannose? Queste sono ancora domande senza risposta, ma dobbiamo risolverle rapidamente, perché l’era degli agenti è alle porte e le cose si stanno muovendo molto rapidamente.

Collegamento alla fonte