direttiva federale L’ordine a tutte le agenzie governative statunitensi di smettere di usare la tecnologia antropica prevede un periodo di eliminazione graduale di sei mesi. Questa sequenza temporale presuppone che le agenzie sappiano già dove si inseriscono i modelli antropici nei loro flussi di lavoro. La maggior parte non lo fa oggi.
Anche la maggior parte delle aziende non lo fa. Il divario tra ciò che le organizzazioni pensano di aver convalidato e ciò che effettivamente funziona in produzione è più ampio di quanto si rendano conto la maggior parte dei leader della sicurezza.
Le dipendenze dei fornitori di intelligenza artificiale non terminano con il contratto firmato; Si riversano attraverso i tuoi fornitori, i venditori dei tuoi fornitori e le piattaforme SaaS adottate dai tuoi team senza revisione degli acquisti. La maggior parte delle aziende non ha mai mappato questa catena.
Inventario che nessuno gestisce
Il sondaggio di Panorays del gennaio 2026 condotto su 200 CISO statunitensi dà una cifra al problema: solo il 15% ha dichiarato di averlo fatto piena visibilità sulle catene di fornitura del software, un anno fa era solo il 3%. Secondo uno studio, il 49% ha adottato strumenti di intelligenza artificiale senza l’approvazione del datore di lavoro. La ricerca BlackFog 2.000 lavoratori in aziende con più di 500 dipendenti; Il 69% dei dirigenti senior ritiene che questo non costituisca un problema.
È qui che si accumulano le dipendenze non documentate dei fornitori di intelligenza artificiale, dipendenze che sono invisibili al team di sicurezza finché la migrazione forzata non diventa un problema di tutti.
“Se chiedessi a un’organizzazione tipica di produrre un grafico delle dipendenze contenente chiamate AI di secondo e terzo ordine, lo costruirebbero da zero sotto pressione”, ha affermato Merritt Baer, CSO di Enkrypt AI ed ex vice CISO di AWS, in un’intervista esclusiva con VentureBeat. “La maggior parte dei programmi di sicurezza sono realizzati per risorse statiche. L’intelligenza artificiale è dinamica, compositiva e sempre più indiretta.”
Quando un rapporto con un fornitore termina da un giorno all’altro
La direttiva crea una migrazione forzata diversa da qualsiasi cosa il governo federale abbia provato con un fornitore di intelligenza artificiale. Qualsiasi organizzazione che esegue flussi di lavoro critici su un singolo fornitore di intelligenza artificiale deve affrontare gli stessi calcoli se quel fornitore scompare.
S.ora visualizza gli eventi dell’IA responsabile del 20% di tutte le violazioniIl rapporto 2025 Cost of Data Breach di IBM ha rilevato che i costi medi delle violazioni ammontano a 670.000 dollari. Non è possibile eseguire un piano di migrazione per l’infrastruttura di cui non è stato effettuato l’inventario.
Potresti non avere un contratto con Anthropic, ma i tuoi fornitori sì. Claude può essere integrato nel motore di analisi di una piattaforma CRM. Un agente del servizio clienti può chiamare questo numero per ogni richiesta di supporto elaborata. Non hai accettato questo rischio, ma lo hai ereditato, e quando l’interruzione del fornitore si verifica a monte, si riversa rapidamente verso il basso. L’organizzazione alla fine di questa catena non è a conoscenza dell’esistenza della dipendenza finché non si rompe qualcosa o non appare una lettera di conformità.
Ha detto Antropik Otto delle 10 più grandi aziende negli Stati Uniti utilizzano Claude. Qualsiasi entità nella catena di approvvigionamento di queste aziende ha un’esposizione antropica indiretta, con o senza contratto. AWS e Palantir, che hanno contratti militari multimiliardari, potrebbero dover rivalutare i loro rapporti commerciali con Anthropic per mantenere gli affari del Pentagono.
La definizione di rischio della catena di fornitura significa che qualsiasi azienda che fa affari con il Pentagono deve ora dimostrare che i propri flussi di lavoro non toccano Anthropic.
“I modelli non sono intercambiabili”, ha detto Baer a VentureBeat. “Cambiare il fornitore modifica i formati di output, le specifiche di latenza, i filtri di sicurezza e i profili delle allucinazioni. Ciò significa riconvalidare non solo la funzionalità ma anche i controlli.”
Ha delineato una sequenza che inizia con il triage e la valutazione del raggio dell’esplosione, passa all’analisi della deviazione comportamentale e termina con la perdita di credenziali e integrazione. “Girare le chiavi è la parte facile”, ha detto Baer. “Svelare le dipendenze codificate, i presupposti dell’SDK del fornitore e i flussi di lavoro degli agenti è il punto in cui le cose si interrompono.”
Dipendenze che i tuoi log non mostrano
Un alto funzionario della difesa ha descritto l’allontanamento di Claude come un passo avanti. “grande mal di testa” Secondo Axios. Se questa è la valutazione dell’apparato di sicurezza più dotato di risorse del pianeta, la domanda per i CISO aziendali è semplice. Quanto tempo impiega il tuo?
L’ondata di shadow IT che ha seguito l’adozione del SaaS ha fornito ai team di sicurezza informazioni dettagliate sui rischi della tecnologia non approvata. La maggior parte è stata catturata. Hanno introdotto i CASB, rafforzato l’SSO e condotto un’analisi della spesa. Gli strumenti hanno funzionato perché la minaccia era visibile. Una nuova applicazione significava un nuovo accesso, un nuovo archivio dati, una nuova voce nei registri.
Le dipendenze dei fornitori di intelligenza artificiale non lasciano queste tracce.
“Lo Shadow IT con SaaS è stato visto ai margini”, ha detto Baer. “Le dipendenze dell’intelligenza artificiale sono integrate in funzionalità di altri fornitori, vengono richiamate dinamicamente anziché installate in modo permanente, non sono comportamentalmente deterministiche e non sono trasparenti. Spesso non si sa quale modello o fornitore viene effettivamente utilizzato.”
Quattro mosse per lunedì mattina
La direttiva federale non ha creato il problema della visibilità della filiera dell’AI. Lo ha rivelato.
“‘Non fare l’inventario della tua intelligenza artificiale’, perché è troppo astratto e troppo lento”, ha detto Baer a VentureBeat. Ha suggerito quattro azioni concrete che un leader della sicurezza potrebbe intraprendere entro 30 giorni.
-
Mappa i percorsi di esecuzione, non i fornitori. Strumento a livello gateway, proxy o applicazione per registrare quali servizi stanno effettuando chiamate modello a quali endpoint e con quali classificazioni di dati. Stai creando una mappa di utilizzo in tempo reale, non un elenco di fornitori statico.
-
Identifica i punti di controllo che hai effettivamente. Se il tuo unico controllo è il limite del venditore, hai già perso. È necessario applicare le norme all’input (quali dati vengono inseriti nei modelli), all’output (quali output sono consentiti a valle) e ai livelli di orchestrazione in cui vengono eseguiti broker e pipeline.
-
Esegui un kill test sulla tua più alta dipendenza dall’IA. Seleziona il tuo fornitore di intelligenza artificiale più critico e simula la sua rimozione in un ambiente di staging. Finalizza la chiave API, monitorala per 48 ore e documenta cosa si è rotto, cosa si è rotto silenziosamente e cosa ha causato errori non coperti dalla guida alla risposta agli incidenti. Questo esercizio scoprirà dipendenze che non sapevi esistessero.
-
Richiedere al fornitore la divulgazione di sub-responsabili e modelli. I tuoi fornitori di intelligenza artificiale dovrebbero essere in grado di rispondere a quali modelli fanno affidamento, dove sono ospitati tali modelli e quali percorsi di fallback sono disponibili. Se non possono, quello è il tuo punto cieco della quarta parte. Fai le domande ora, mentre la tua relazione è stabile. Quando si verifica un’interruzione, i cambiamenti di leva e le risposte arrivano troppo tardi.
illusione di controllo
“Le aziende credono di ‘certificare’ i propri fornitori di intelligenza artificiale, ma ciò che in realtà stanno certificando è un’interfaccia, non il sistema sottostante”, ha detto Baer a VentureBeat. “Le vere dipendenze sono uno o due strati più profondi, e sono quelle che falliscono sotto stress.”
La direttiva federale contro l’Anthropic è un evento meteorologico di un’organizzazione. Indipendentemente dal fatto che il fattore scatenante sia normativo, contrattuale, operativo o geopolitico, ogni organizzazione prima o poi dovrà affrontare la propria versione. Le organizzazioni che hanno mappato le catene di approvvigionamento dell’IA prima della tempesta si riprenderanno. Coloro che non possono verranno coinvolti.
Mappa le dipendenze dei tuoi fornitori di intelligenza artificiale a livello di substrato. Esegui il test di uccisione. Forzare la divulgazione. Concediti 30 giorni. La prossima migrazione forzata non avverrà con un preavviso di sei mesi.















