Sicurezza per l'IA: un quadro strategico per colmare il divario di esposizione all'IA
Con l'accelerazione dell'adozione dell'IA, i CISO si trovano ad affrontare una duplice sfida: alimentare l'innovazione e mitigare i rischi di una superficie di attacco in rapida espansione. Il quadro di riferimento in cinque fasi di Tenable per la sicurezza dell'IA offre un approccio sistematico per ridurre i rischi legati all'IA, mentre la tua organizzazione corre per ottenere i benefici in termini di produttività dell'IA.
Punti principali
- Ottieni un quadro di riferimento in cinque fasi per proteggere l'utilizzo dell'IA in tutta l'organizzazione e mitigare i rischi per la sicurezza creati dagli strumenti di IA.
- La sicurezza per l'uso dell'IA in contesto aziendale richiede una combinazione di solide capacità di rilevamento dell'IA, meccanismi per proteggere i carichi di lavoro dell'IA e l'infrastruttura che la esegue, visibilità a livello di prompt, capacità di analizzare i rischi per la sicurezza dell'IA insieme ad altre esposizioni e controlli tecnici per garantire la conformità alla politica di utilizzo accettabile dell'IA dell'organizzazione.
- Scopri perché i controlli di sicurezza esistenti potrebbero essere inadeguati quando si tratta di protezione in ambito IA.
Mentre l'IA trasforma le aziende, i responsabili della sicurezza come me sono alle prese con il modo più efficace di gestire i rischi per la sicurezza che ne derivano.
La sfida è che oggi l'IA è praticamente integrata ovunque nelle nostre organizzazioni: negli strumenti di produttività dei dipendenti, nelle piattaforme SaaS, nelle librerie per sviluppatori, nei servizi cloud, nelle API e nelle applicazioni web. Il risultato? I nostri team si trovano con un crescente divario di esposizione all'IA: una superficie di attacco vasta e in gran parte invisibile, che i nostri strumenti di sicurezza tradizionali non sono in grado di monitorare.
A complicare le cose c'è il fatto che spesso non è possibile isolare il rischio legato all'IA a un singolo asset. Piuttosto, emerge da una serie di elementi interconnessi (come applicazioni, infrastrutture, identità e dati) che nel loro insieme generano esposizione. Ecco un esempio di ciò che intendo.
Supponiamo che un dipendente utilizzi un chatbot di IA approvato per la risoluzione di problemi tecnici che si basa su agenti Amazon Bedrock, e che questi agenti abbiano privilegi elevati per accedere a sistemi interni sensibili come strumenti di enterprise resource planning e customer relationship management. Se un attore malevolo ottiene accesso all'agente tramite una vulnerabilità non corretta sul laptop del dipendente, allora può utilizzare l'agente per violare dati sensibili, e un utilizzo apparentemente sicuro di uno strumento di IA approvato si rivela in realtà un'esposizione ad alto impatto.
Proteggere i dati negli attuali ambienti di lavoro assistiti dall'IA diventa esponenzialmente più difficile perché ciascuna delle numerose interazioni con le risorse di IA (ad esempio ogni prompt, upload di file, risposta generata, integrazione e configurazione) può mettere a rischio proprietà intellettuale, informazioni sui clienti e piani confidenziali.
Quindi, come possiamo domare questa nuova superficie di attacco che cresce incontrollata man mano che le nostre organizzazioni espandono l'uso dell'IA? Ecco un quadro strategico che ho implementato per gestire, rilevare e mettere in sicurezza l'uso dell'IA ovunque essa venga implementata e crei rischi per l'organizzazione.
Quadro strategico: 5 passaggi per la sicurezza dell'IA aziendale
1. Stabilire un comitato di governance dell'IA, un quadro di riferimento e una politica di utilizzo accettabile.
La sicurezza dell'IA inizia definendo aspettative chiare con i dipendenti riguardo all'uso consentito. Stabilisci una politica di utilizzo accettabile dell'IA che:
- fornisce un elenco di strumenti di IA approvati e non approvati;
- definisce i casi d'uso aziendali appropriati e inappropriati;
- spiega i tipi di dati che possono e non possono essere condivisi con gli LLM;
- prescrive le regole per il trattamento dei dati;
- si occupa delle leggi sul diritto d'autore; e
- indica le conseguenze delle violazioni della politica.
In base alla politica di utilizzo accettabile dell'IA dell'organizzazione, è possibile implementare controlli per imporre e monitorare la conformità a tale politica.
2. Rilevare l'IA sull'intera superficie di attacco
Quando parlo con altri CISO della messa in sicurezza dell'IA, mi dicono che il rilevamento e l'individuazione rappresentano una delle loro sfide più grandi. E lo capisco: è ovunque, e gran parte è davvero difficile da individuare, in parte perché la presenza dell'IA si estende ben oltre i sistemi gestiti centralmente e chiaramente visibili.
In qualità di responsabili della sicurezza, dobbiamo tenere conto di quanto segue:
- Risorse di IA, agenti, plug-in, estensioni del browser e carichi di lavoro, indipendentemente dal fatto che siano...
- in esecuzione in cloud o on-premise
- accessibili internamente o esternamente
- approvati o non approvati
- Distribuzioni di test IA dimenticate
- Strumenti di IA integrati in endpoint e applicazioni
- Tutti i software, le librerie, i modelli e i servizi di IA
- Servizi di IA esposti pubblicamente, API per modelli linguistici di grandi dimensioni (LLM) e chatbot IA su endpoint e applicazioni cloud.
Le soluzioni esistenti di prevenzione della perdita di dati (DLP), broker di sicurezza per l'accesso al cloud (CASB) e gestione della postura di sicurezza del cloud (CSPM) possono fornire un buon punto di partenza per rilevare le risorse di IA. Ma uno scenario di rilevamento olistico richiede strumenti di rilevamento specializzati perché la natura non deterministica dell'IA sfida le tradizionali protezioni di sicurezza basate su regole. Richiede inoltre capacità di rilevamento uniche per identificare gli strumenti e le librerie di IA incorporati e capire come i sistemi di IA lavorano insieme per creare esposizione.
Con una visione continua e completa dell'utilizzo dell'IA nella tua azienda, saprai con precisione quali carichi di lavoro e infrastrutture devi mettere in sicurezza e potrai iniziare a valutare l'esposizione complessiva dell'organizzazione all'IA, dando priorità alle specifiche azioni di correzione di conseguenza.
3. Proteggere i carichi di lavoro e gli agenti IA
Poiché i carichi di lavoro di IA sono profondamente interconnessi e spesso gravemente mal configurati o con permessi eccessivi, questa fase implica la messa in sicurezza proattiva dell'infrastruttura in cui l'IA viene eseguita e il rafforzamento dei carichi di lavoro di IA prima che gli autori di attacchi possano sfruttarli. Ad esempio, se gli sviluppatori della tua organizzazione stanno sviluppando applicazioni abilitate all'IA nel cloud, devi assicurarti che l'infrastruttura cloud sia sicura.
Protezioni efficaci richiedono la capacità di:
- Identificare le configurazioni errate e rischiose nei carichi di lavoro IA basati sul cloud.
- Rilevare le vulnerabilità che potrebbero esporre modelli, agenti, dati o API ad accessi non autorizzati.
- Implementare la riduzione dell'esposizione in base all'identità, poiché l'IA si basa molto su identità non umane.
- Rilevare gli account di servizio, i ruoli e le identità macchina con privilegi eccessivi utilizzati dai carichi di lavoro di IA e applica rigorosamente il principio del privilegio minimo.
- Comprendere i potenziali percorsi di attacco da asset aziendali e carichi di lavoro che potrebbero avere un impatto sui sistemi critici per l'azienda o portare a dati sensibili.
- Isolare rapidamente agent di IA anomali o compromessi in ambienti controllati per ridurre al minimo il potenziale impatto di una violazione.
Approfondirò l'argomento specifico della sicurezza dei carichi di lavoro e degli agenti di IA in un blog successivo che ho in programma. Nel frattempo, puoi capire come le debolezze dell'identità e le falle dell'infrastruttura si combinino per creare esposizioni critiche conducendo un'analisi approfondita dei rischi del tuo stack AI. Sulla base di queste informazioni, è possibile fornire ai team di sicurezza dei playbook per rafforzare gli ambienti e garantire che i servizi vengano eseguiti su architetture sicure, resilienti e convalidate.
4. Valutare l'utilizzo e le interazioni dell'IA
Questa fase prevede la comprensione del modo in cui i dipendenti interagiscono con gli strumenti di IA generativa e gli agenti autonomi, per assicurarsi che i dipendenti non violino la politica di utilizzo accettabile dell'IA dell'azienda. È fondamentale capire come i dati fluiscono attraverso tutte le applicazioni di IA e determinare dove si crea l'esposizione.
Ciò richiede una visibilità granulare su:
- Chi utilizza l'IA
- Per quale scopo
- Dove nascono i comportamenti a rischio e gli abusi
- Quali sono i dati che i dipendenti condividono tramite prompt, upload o azioni automatiche
- Tentativi di eseguire il jailbreak di strumenti di IA approvati e di fornire suggerimenti dannosi
La visibilità a livello di prompt sull'uso dell'IA da parte dei dipendenti consente al team di sicurezza di rilevare le violazioni delle policy e di rafforzare il comportamento sicuro dell'IA. Consente inoltre al tuo team di sicurezza di individuare eventuali dati sensibili, inclusi proprietà intellettuale e dati personali (PII), che dipendenti o agenti condividono con strumenti di IA tramite prompt, upload e interazioni automatizzate e che potrebbero generare esposizione a causa di una perdita accidentale. Inoltre, consente al tuo team di sicurezza di rilevare e rispondere a nuove minacce e usi impropri specifici dell'IA, come tentativi di prompt injection e altre istruzioni malevole progettate per manipolare i sistemi di IA.
Che si tratti di rilevare uno strumento malevolo collegato a un agente Microsoft Copilot o di un dipendente che utilizza impropriamente l'IA in contesti per cui lo strumento non è stato progettato (ad esempio, decisioni interne di assunzione), è necessario intervenire rapidamente per gestire l'esposizione e rafforzare un utilizzo sicuro.
5. Analizzare i rischi per la sicurezza dell'IA nel contesto di altre esposizioni
Per mitigare i rischi di sicurezza dell'IA, non è sufficiente rilevare in modo isolato vulnerabilità non corrette nel software di IA, configurazioni deboli dei sistemi di IA e agenti con privilegi eccessivi. Dopotutto, l'IA sta diventando completamente integrata in tutte le nostre applicazioni, dati e processi aziendali.
Mitigare i rischi di sicurezza dell'IA richiede un approccio unificato e automatizzato alla raccolta di dati di sicurezza dell'IA ricchi di contesto e alla loro correlazione e analisi insieme ad altri dati di esposizione, come un bucket S3 esposto pubblicamente, un laptop vulnerabile o un account orfano con privilegi di amministratore. Noi di Tenable One chiamiamo questo approccio gestione dell'esposizione e vediamo che il settore lo sta rapidamente adottando. La gestione dell'esposizione consente di vedere in modo proattivo come le debolezze della sicurezza nell'ambiente si combinano per creare esposizione: percorsi di attacco ad alto rischio che portano ai sistemi e ai dati più sensibili dell'organizzazione.
La gestione dell'esposizione evidenzia inoltre i rischi con un contesto preciso — inclusi lo specifico motore di IA, l'utente e la sessione — per consentire una gestione delle problematiche ad alta affidabilità e una risposta rapida. Si tratta di comprendere come combinazioni tossiche di rischi si combinano fino a generare esposizione per il business. Una configurazione errata di media criticità in Amazon Bedrock potrebbe essere collegata a un LLM non protetto che fornisce agli agenti un accesso ai diritti in eccesso. La gestione dell'esposizione richiede una comprensione completa dell'intero ambiente e della superficie di attacco.
Proteggere il futuro dell'innovazione dell'IA
La rapida integrazione dell'IA in tutta l'azienda ha creato una superficie di attacco complessa e interconnessa che i controlli di sicurezza tradizionali non sono in grado di gestire. Per colmare il divario di esposizione all'IA, i responsabili della sicurezza devono passare da un approccio reattivo e incentrato sugli strumenti a una strategia proattiva e unificata.
Implementando questo quadro di riferimento in cinque fasi, è possibile creare una postura di sicurezza resiliente che si evolve insieme alla tecnologia IA. In definitiva, una gestione efficace dell'esposizione non significa rallentare l'innovazione, ma fornire le protezioni necessarie per garantire che la tua organizzazione possa sfruttare la potenza dell'IA in modo sicuro e fiducioso.
Scopri di più
- Cloud
- Exposure Management
Tenable One
Richiedi una demo
La piattaforma di gestione dell'esposizione basata sull'IA leader nel mondo.
Grazie
Grazie per l'interesse dimostrato per Tenable One.
Un rappresentante ti contatterà a breve.
Form ID: 7469
Form Name: one-eval
Form Class: c-form form-panel__global-form c-form--mkto js-mkto-no-css js-form-hanging-label c-form--hide-comments
Form Wrapper ID: one-eval-form-wrapper
Confirmation Class: one-eval-confirmform-modal
Simulate Success