Sembra che Anthropic abbia accidentalmente esposto al pubblico il funzionamento interno del sistema di intelligenza artificiale dell’agente Claude Code, uno dei prodotti di intelligenza artificiale più popolari e redditizi.
Un file di mappa di origine JavaScript da 59,8 MB (.map) serve per scopi di debug interno ed è stato erroneamente incluso nella versione 2.1.88. @anthropic-ai/claude-code Il pacchetto nel registro pubblico npm è stato pubblicato questa mattina presto.
entro le 4:23 ET, Chaofan Shou (@Fried_rice)uno stagista presso Solayer Labs, ha pubblicato la scoperta su X (ex Twitter). Il post, che includeva un collegamento per il download diretto a un archivio ospitato, è servito da bagliore digitale. Circa 512.000 righe di codice TypeScript sono state inviate a GitHub in poche ore e analizzate da migliaia di sviluppatori.
Anthropic è un’azienda che attualmente sta vivendo una crescita molto rapida. Tasso di entrate annuali segnalato di $ 19 miliardi A marzo 2026, la fuga di notizie è più di una vulnerabilità; si tratta di un’emorragia strategica della proprietà intellettuale. La tempistica è particolarmente critica data la velocità commerciale del prodotto.
I dati di mercato mostrano che solo Claude Code ha raggiunto questo obiettivo entrate ricorrenti annuali (ARR) di $ 2,5 miliardi, una cifra che è più che raddoppiata dall’inizio dell’anno.
Con l’adozione aziendale che rappresenta l’80% delle sue entrate, la fuga di notizie offre ai concorrenti, dai giganti affermati agli agili rivali come Cursor, un modello letterale su come costruire un agente AI di alta impresa, affidabile e commercialmente valido.
Abbiamo contattato Anthropic per una dichiarazione ufficiale in merito alla fuga di notizie e aggiorneremo la notizia non appena riceveremo risposta.
Anatomia della memoria dell’autore del reato
Il punto chiave per i concorrenti sta nel modo in cui Anthropic risolve il problema "entropia del contesto"—la tendenza degli agenti IA a confondersi o ad avere allucinazioni man mano che aumenta la complessità delle sessioni di lunga durata.
Una fonte trapelata rivela una situazione complessa architettura di memoria a tre strati non convenzionale "tieni tutto" recupero.
Come analizzato dagli sviluppatori come @himanshustwtsarchitettura, uno "Memoria di autoguarigione" sistema.
nella sua essenza MEMORY.mdun indice di puntatori leggero (~150 caratteri per riga) che viene costantemente caricato nel contesto. Questa directory non memorizza dati; posizioni dei negozi.
Le informazioni effettive sul progetto sono distribuite pubblicamente "file oggetto" le trascrizioni grezze non vengono mai lette completamente nel contesto, ma solo "grep’d" per determinati identificatori.
Questo "Rigorosa disciplina della scrittura"Nel caso in cui l’agente abbia bisogno solo di aggiornare il proprio indice dopo una scrittura del file riuscita, si impedisce al modello di inquinare il proprio contesto con tentativi falliti.
Per i concorrenti, "piano" È ovvio: creare una memoria scettica. Il codice conferma che agli agenti dell’Anthropic è stato ordinato di considerare i propri ricordi come un souvenir. "traccia," Richiede al modello di verificare i fatti rispetto alla base di codice effettiva prima di procedere.
KAIROS e il demone autonomo
La fuga di notizie alza anche il sipario "CAIRO," concetto greco antico "al momento giusto," un flag di funzionalità menzionato più di 150 volte nella fonte. KAIROS rappresenta un cambiamento fondamentale nell’esperienza dell’utente: una modalità demone autonoma.
Sebbene gli strumenti di intelligenza artificiale esistenti siano in gran parte reattivi, KAIROS consente a Claude Code di funzionare come agente in background sempre attivo. Gestisce sessioni in background e utilizza un processo chiamato autoDream.
In questa modalità viene eseguita la delega "deframmentazione della memoria" mentre l’utente è inattivo. autoDream La logica unifica osservazioni disparate, elimina le contraddizioni logiche e trasforma intuizioni vaghe in verità assolute.
Questa manutenzione in background garantisce che il contenuto del broker sia pulito e altamente pertinente quando l’utente ritorna.
L’implementazione di un agente figlio biforcato per eseguire queste attività rivela un approccio ingegneristico maturo per impedire l’esecuzione dell’agente padre. "filo del pensiero" È protetto dal deterioramento grazie alle proprie routine di manutenzione.
Modelli interni e misurazioni della performance non pubblicati
Il codice sorgente offre uno sguardo raro alla roadmap del modello interno di Anthropic e alle lotte per lo sviluppo di frontiera.
La fuga di notizie conferma che Capybara è il nome in codice interno di una variante di Claude 4.6, che Fennec corrisponde a Opus 4.6 e che l’inedito Numbat è ancora in fase di test.
Commenti interni rivelano che Anthropic sta attualmente lavorando su Capybara v8, ma il modello deve ancora affrontare ostacoli significativi. Il codice rileva un tasso di asserzioni false del 29-30% nella v8; Si tratta di un calo reale rispetto al 16,7% osservato nella v4.
Gli sviluppatori hanno anche notato: "contrappeso all’assertività" È progettato per evitare che il modello sia eccessivamente aggressivo nelle sue rimasterizzazioni.
Per i concorrenti, questi parametri hanno un valore inestimabile; Forniscono un punto di riferimento "soffitto" per le attuali prestazioni rappresentative ed evidenziare punti deboli specifici (commenti eccessivi, false affermazioni) che Anthropic sta ancora cercando di risolvere.
"Nascosto" claude
Forse il dettaglio tecnico più discusso è "Modalità di navigazione in incognito." Questa funzionalità rivela che Anthropic utilizza Claude Code "sicurezza" Contributi a repository open source disponibili al pubblico.
Il prompt del sistema scoperto nella fuga di notizie avverte chiaramente il modello: "Stai operando IN MODO CONFIDENZIALE… I tuoi messaggi di commit… NON DEVONO CONTENERE NESSUNA informazione interna ad Anthropic. Non far saltare la tua copertura."
Mentre Antropik può utilizzarlo per scopi interni "cibo per cani," Fornisce un quadro tecnico per qualsiasi organizzazione che desideri utilizzare agenti di intelligenza artificiale per studi pubblici senza divulgarli.
La logica è che nessun nome del modello (come) "tengu" O "capibara") o attributi AI che trapelano nei log git pubblici; una capacità che i concorrenti aziendali probabilmente vedranno come una caratteristica indispensabile per i propri clienti aziendali che apprezzano l’anonimato nello sviluppo basato sull’intelligenza artificiale.
Il declino è appena iniziato
"piano" è ora disponibile e rivela che Claude Code non è solo un involucro attorno al Large Language Model, ma un sistema operativo complesso e multi-thread per l’ingegneria del software.
Anche segreto "Compagno" sistema: un animale domestico terminale in stile Tamagotchi con le seguenti statistiche CHAOS E SNARK— Mostra costruzioni antropiche "personalità" al prodotto per aumentare l’adesione dell’utente.
Per il mercato più ampio dell’intelligenza artificiale, la fuga di dati livella effettivamente il campo di gioco per l’orchestrazione delle agenzie.
I concorrenti stanno ora estraendo le oltre 2.500 linee di logica di convalida bash e strutture di memoria a più livelli di Anthropic. "Come Claude" Agenzie con una parte molto piccola del budget di ricerca e sviluppo.
Aspetto "capibara" Nel momento in cui lascia il laboratorio, la corsa per creare la prossima generazione di agenti autonomi ha raggiunto un incremento non pianificato di 2,5 miliardi di dollari nell’intelligenza collettiva.
Cosa dovrebbero fare ora gli utenti di Claude Code e i clienti aziendali in merito alla presunta fuga di notizie
Sebbene la perdita del codice sorgente costituisca di per sé un duro colpo per la proprietà intellettuale di Anthropic, rappresenta un rischio particolare ed elevato per la sicurezza dell’utente.
rivelando "piani" Secondo la legge di Claude, Anthropic ha fornito una tabella di marcia ai ricercatori e ai malintenzionati che ora sono attivamente alla ricerca di modi per aggirare le barriere di sicurezza e le richieste di consenso.
Poiché la fuga di notizie ha messo in luce l’intera logica di orchestrazione dei server Hooks e MCP, gli aggressori possono ora progettare repository dannosi su misura. "ingannare" Dirigi Claude Code per eseguire comandi in background o estrarre dati prima di visualizzare una richiesta di attendibilità.
Ma il pericolo più immediato è un attacco simultaneo e separato alla catena di approvvigionamento. axios npm che si è verificato ore prima della perdita.
Se hai installato o aggiornato Claude Code tramite npm tra le 00:21 e le 03:29 UTC del 31 marzo 2026, potresti aver ricevuto accidentalmente una versione dannosa di axios (1.14.1 o 0.30.4) che contiene un Trojan di accesso remoto (RAT). Dovresti cercare immediatamente i file di blocco del progetto (package-lock.json, yarn.lockO bun.lockb) per quelle versioni o dipendenze specifiche plain-crypto-js. Se trovato, considera l’host come completamente compromesso, ruota tutti i segreti ed esegui una reinstallazione pulita del sistema operativo.
Per ridurre i rischi futuri, è necessario abbandonare completamente l’installazione basata su npm. Programma di installazione nativo specificato antropico (curl -fsSL https://claude.ai/install.sh | bash) viene utilizzato come metodo consigliato perché utilizza un file binario autonomo che non si basa sulla catena di dipendenze npm temporanea.
La versione nativa supporta anche gli aggiornamenti automatici in background, garantendo la ricezione delle patch di sicurezza (possibilmente la versione 2.1.89 o successiva) non appena vengono rilasciate. Se devi restare con npm, assicurati di disinstallare la versione 2.1.88 trapelata e fissa la tua installazione su una versione sicura verificata come 2.1.86.
Infine, adotta un atteggiamento di fiducia zero quando usi il Codice Claude in ambienti non familiari. Evitare di eseguire l’agente su repository appena clonati o non attendibili finché non li si controlla manualmente. .claude/config.json ed eventuali ganci speciali.
Come misura di difesa approfondita, ruota le tue chiavi API Anthropic tramite la console per sviluppatori e monitora il tuo utilizzo per eventuali anomalie. Mentre i tuoi dati archiviati nel cloud rimangono al sicuro, la vulnerabilità del tuo ambiente locale è ora aumentata a causa dell’esposizione pubblica delle difese interne dell’intermediario; Rimanere sul percorso di aggiornamento ufficiale installato localmente è la tua migliore difesa.















