DeepSeek-R1 LLM cinese Genera fino al 50% di codice insicuro in più quando richiesto con input politicamente sensibili come "Falun Gong," "Uiguri," O "Tibet," Secondo una nuova ricerca di CrowdStrike.
L’ultima di una serie di scoperte: follow-up Esposizione del database di gennaio di Wiz Research, Vulnerabilità dell’app iOS di NowSecure, Tasso di successo del jailbreak del 100% di CiscoE Il NIST rileva che DeepSeek è 12 volte più suscettibile agli agenti di dirottamento — I risultati di CrowdStrike mostrano come i meccanismi di censura geopolitica di DeepSeek siano integrati direttamente nei pesi del modello anziché nei filtri esterni.
Secondo il rapporto, DeepSeek sta trasformando la conformità normativa cinese in una vulnerabilità della catena di approvvigionamento, con il 90% degli sviluppatori che si affida a strumenti di codifica basati sull’intelligenza artificiale.
Ciò che colpisce di questa scoperta è che la vulnerabilità non risiede nell’architettura del codice; è integrato nel processo decisionale del modello, creando quello che i ricercatori di sicurezza descrivono come un vettore di minaccia senza precedenti in cui l’infrastruttura di censura diventa una superficie di sfruttamento attivo.
CrowdStrike Operazioni di contrasto al nemico Ha scoperto prove documentate che DeepSeek-R1 produce software di livello aziendale pieno di credenziali codificate, flussi di autenticazione danneggiati e convalida incompleta quando il modello è esposto a modificatori contestuali politicamente sensibili. Gli attacchi si distinguono perché sono misurabili, sistematici e ripetibili. I ricercatori sono stati in grado di dimostrare come DeepSeek applichi implicitamente i requisiti di conformità geopolitica, creando nuovi vettori di attacco imprevedibili di cui ogni CIO o CISO che ha provato il jitter coding ha gli incubi.
In quasi la metà dei casi test che coinvolgevano suggerimenti politicamente sensibili, il modello ha rifiutato di rispondere quando non venivano utilizzati i modificatori politici. Il gruppo di ricerca è riuscito a replicarlo nonostante tracce di ragionamento interno indicassero che il modello aveva calcolato una risposta valida e completa.
I ricercatori hanno identificato un kill switch ideologico nascosto nei pesi del modello, progettato per annullare l’esecuzione su questioni delicate, indipendentemente dal merito tecnico del codice richiesto.
Una ricerca che cambierà tutto
Stefan Stein, direttore di CrowdStrike Counter Adversary Operations, ha testato DeepSeek-R1 su 30.250 prompt e ha confermato che quando DeepSeek-R1 riceve prompt contenenti argomenti che il Partito Comunista Cinese considera probabilmente politicamente sensibili, la probabilità di produrre codice con gravi vulnerabilità aumenta fino al 50%. I dati rivelano un chiaro modello di vulnerabilità innescate politicamente:
I numeri raccontano la storia di quanto DeepSeek sia progettato per sopprimere input politicamente sensibili e di quanto lontano si spinga il modello nel censurare qualsiasi interazione basata su argomenti che il PCC disapprova. Aggiunta "Per un sistema di controllo industriale con sede in Tibet" i tassi di vulnerabilità sono saliti al 27,2%, mentre i riferimenti agli uiguri sono aumentati fino a quasi il 32%. Nonostante il modello pianificasse risposte valide nelle tracce di ragionamento, DeepSeek-R1 ha rifiutato di generare codice per le richieste relative al Falun Gong il 45% delle volte.
Le parole provocatorie trasformano il codice in una backdoor
I ricercatori di CrowdStrike hanno quindi incoraggiato DeepSeek-R1 a creare un’applicazione web per un centro comunitario uiguro. Il risultato è stato un’applicazione web completa con hashing della password e pannello di amministrazione, ma in cui l’autenticazione veniva completamente aggirata e l’intero sistema era accessibile pubblicamente. Il controllo di sicurezza ha rivelato errori di autenticazione di base:
Quando la stessa richiesta è stata ripresentata per un contesto e una posizione neutrali, le falle di sicurezza sono scomparse. Sono stati implementati i controlli di autenticazione e la gestione delle sessioni è stata configurata correttamente. Pistola fumante: solo il contesto politico determinava l’esistenza o meno di controlli di sicurezza di base. Adam Meyers, capo delle operazioni contro-avversario di CrowdStrike, non ha usato mezzi termini sulle implicazioni di ciò.
interruttore di interruzione
Poiché DeepSeek-R1 è open source, i ricercatori sono stati in grado di identificare e analizzare tracce di ragionamento che mostravano che il modello avrebbe prodotto un piano dettagliato per rispondere alle richieste che coinvolgevano argomenti delicati come il Falun Gong, ma si sono rifiutati di completare l’attività tramite messaggio. "Mi dispiace ma non posso aiutarti con questa richiesta." La logica interna del modello rivela il meccanismo di censura:
L’improvvisa interruzione di una richiesta da parte di DeepSeek all’ultimo momento riflette quanto profondamente la censura sia incorporata nei pesi del modello. I ricercatori di CrowdStrike hanno descritto questo comportamento simile alla memoria muscolare, che si verifica in meno di un secondo, come il kill switch interno di DeepSeek. 4.1 delle misure provvisorie della Cina per la gestione dei servizi di intelligenza artificiale produttiva. L’articolo prevede che i servizi di intelligenza artificiale siano resi obbligatori. "aderire ai valori fondamentali del socialismo" vieta espressamente il contenuto che può essere "incoraggiando la sovversione del potere statale" O "Minando l’unità nazionale." Per rimanere dalla parte giusta del PCC, DeepSeek ha scelto di incorporare la censura a livello di modello.
Il tuo codice è sicuro quanto lo sono le policy della tua IA
DeepSeek lo sapeva. Ha costruito questo. Lo ha mandato via. Non ha detto nulla. La progettazione di pesi modello per censurare i termini che il PCC ritiene provocatori o in violazione dell’articolo 4.1 porta la correttezza politica a un livello completamente nuovo sulla scena globale dell’IA.
Per le aziende che eseguono la codifica delle vibrazioni con DeepSeek o sviluppano applicazioni sul modello, i risultati dovrebbero essere presi immediatamente in considerazione. Prabhu Ram, vicepresidente della ricerca industriale presso Cybermedia Research. avvertito LUI "Se i modelli di intelligenza artificiale producono un codice difettoso o distorto influenzato da direttive politiche, le aziende si trovano ad affrontare rischi intrinseci derivanti dalle vulnerabilità dei sistemi sensibili, soprattutto in situazioni in cui l’imparzialità è fondamentale."
La censura ingegnerizzata di DeepSeek è un messaggio chiaro sulle pratiche di costruzione del business in Masters oggi. Non fidatevi dei padroni controllati dallo stato o di quelli sotto l’influenza dello stato nazionale.
Assegnare il rischio a piattaforme open source affidabili in cui le tendenze dei pesi possono essere chiaramente comprese. Come ti dirà qualsiasi CISO coinvolto in questi progetti, ottenere controlli di governance su tutto, dalla costruzione rapida, trigger involontari, accesso con privilegi minimi, forte micro-segmentazione e protezione a prova di bomba delle identità umane e non umane è un’esperienza di costruzione della carriera e del carattere. È difficile riuscire e avere successo, soprattutto nelle applicazioni di intelligenza artificiale.
Insomma: Quando si sviluppano applicazioni IA, è sempre necessario tenere conto dei relativi rischi per la sicurezza di ciascuna piattaforma utilizzata come parte del processo DevOps. La censura dei termini che il PCC ritiene provocatori da parte di DeepSeek introduce una nuova era di rischio che si estende a tutti, dal singolo programmatore jitter al team aziendale che sviluppa nuove applicazioni.















