Gli strumenti AI che operano al di fuori della sorveglianza del reparto IT, insieme alla loro capacità di analizzare rapidamente i dati, aumentano il rischio in modo esponenziale. Di conseguenza, il divario tra sicurezza e AI continua a crescere.
I dati sensibili si muovono più velocemente e in modi più imprevedibili che mai e le difese tradizionali non sono state sviluppate per questa realtà. L'AI, nonostante i vantaggi in termini di produttività, può lasciare esposti i dati sensibili, che possono essere estratti in pochi secondi.
Adottare l'AI in modo sicuro comporta il fatto che le organizzazioni devono spostare l'attenzione sulla sicurezza verso il punto in cui risiede effettivamente il rischio: i dati stessi. In questo articolo, esploreremo perché la sicurezza dei dati è alla base della sicurezza dell'AI e come proteggere le pipeline AI prima che sia troppo tardi.
La sfida della sicurezza dell'IA
L'adozione dell'AI a livello aziendale presenta sfide che molte organizzazioni non riescono a gestire, tra cui:
- Agenti AI che accedono a dati sensibili senza una governance adeguata
- Soluzioni di AI generativa che creano nuovi dati sensibili a un ritmo elevato
- Strumenti Shadow AI che vengono adottati senza l'autorizzazione dell'IT/sicurezza
- Copiloti di AI che collegano dati isolati senza adeguate protezioni
- Avvelenamento di dati e modelli che minacciano l'integrità del modello
Gli approcci di sicurezza tradizionali e le soluzioni DLP non riescono a tenere il passo con queste sfide: generano troppo rumore e spesso non supportano i nuovi data store in cui opera l'AI. Le moderne soluzioni di sicurezza dei dati devono includere nella loro copertura identità, cloud, endpoint e ambienti SaaS.
Perché la sicurezza dei dati è il fondamento della sicurezza dell'IA
I sistemi di AI sono intrinsecamente guidati dai dati. Per l'addestramento, il funzionamento e l'apprendimento dell'AI è necessaria una grande quantità di dati. Questi dati determinano un problema di sicurezza bidirezionale, in cui i dati che entrano nei sistemi di AI e quelli che escono dai sistemi di AI devono essere monitorati e gestiti in modo efficace.
Le organizzazioni devono assicurarsi che le informazioni sensibili non vengano inavvertitamente inserite nei modelli AI (portando potenzialmente a perdite di dati o violazioni della conformità) e garantire che gli output generati dall'AI non contengano informazioni sensibili o creino nuove vulnerabilità di sicurezza.
Oltre a ciò, le organizzazioni devono fare attenzione a un aumento del blast radius causato dall'AI. Il blast radius si riferisce alla potenziale estensione del danno possibile se i sistemi di intelligenza artificiale vengono compromessi o utilizzati in modo improprio.
L'accesso incontrollato all'AI può trasformare un piccolo passo falso in un catastrofico data breach. Limitando le autorizzazioni e monitorando le configurazioni, le organizzazioni possono ridurre drasticamente la portata e l'impatto di un incidente.
Proteggere le pipeline dell'AI: un approccio completo
Proteggere efficacemente i dati dall'AI richiede un approccio olistico che affronti l'intera pipeline dell'AI, dall'ingestione dei dati alla gestione dell'output. Seguire questa strategia garantisce che l'AI venga implementata tenendo presente la sicurezza dei dati.
Visualizza l'accesso dell'AI ai dati sensibili
Il primo passo per gestire il rischio dell'AI è mappare gli archivi di dati sensibili a cui i tuoi strumenti e agenti AI possono accedere. Ad esempio, capire che Microsoft 365 Copilot utilizza le autorizzazioni dell'utente è importante se lo si sta abilitando per la propria organizzazione. Bloccare le autorizzazioni e visualizzare ciò a cui l'AI può accedere prima di abilitare uno strumento aiuta a capire la potenziale esposizione dei dati. Da lì, si potrà valutare il livello di rischio associato a ciascun data store, attribuire priorità alle strategie di mitigazione e implementare i controlli di accesso appropriati.
Revoca i permessi eccessivi
Spesso i sistemi AI ricevono più autorizzazioni del necessario, rendendo fondamentale l'implementazione dell'accesso con il minimo privilegio per gli strumenti e i servizi AI. Ad esempio, uno strumento di previsione delle vendite di AI probabilmente non ha bisogno di accedere ai tuoi dati HR per svolgere il suo lavoro. Gli agenti formati su dati con autorizzazioni eccessive possono anche dare risposte non pertinenti, aumentando le conseguenze di un potenziale data breach. Senza imporre il privilegio minimo, l'AI può diventare una potente minaccia interna in grado di esporre terabyte di dati in pochi secondi.

Correggi le configurazioni errate rischiose dell'AI
L'auditing regolare delle configurazioni dei sistemi AI aiuta le organizzazioni a individuare e a effettuare la remediation delle lacune di sicurezza, tra cui la revisione dei vincoli di prompt, la correzione dei meccanismi di autenticazione o la risoluzione dei punti di integrazione dei dati impropri. Mantenere in modo proattivo una cadenza di audit regolare aiuta le organizzazioni ad adattarsi all'evoluzione dei requisiti di conformità e a rafforzare una solida strategia di governance dell'AI.
Monitora i dati creati dall'AI
I sistemi AI possono generare grandi quantità di nuovi dati per la tua organizzazione, alcuni dei quali sono sensibili e richiedono una supervisione della sicurezza. Quando vengono generati nuovi dati, devi classificare se si tratta di dati generati dall'AI, applicare label di sensibilità e monitorare le attività sospette.
Quando si tratta di classificare i contenuti generati dall'AI, l'approccio migliore consiste nell'individuare e classificare automaticamente i contenuti in base ai livelli di sensibilità. Ad esempio, gli output di un chatbot AI del servizio clienti devono essere classificati in base al fatto che contengano informazioni sensibili come i dettagli dei clienti o i dati finanziari.
Poi, assicurati che tutti i contenuti generati dall'AI ricevano la label di sensibilità appropriata, per controllare le modalità di accesso, condivisione e utilizzo. Ciò potrebbe includere l'etichettatura automatica dei documenti generati dagli assistenti AI con designazioni "riservate" o "pubbliche".
Monitora l'uso sospetto dell'AI
Tutte le interazioni degli utenti con l'AI devono essere monitorate per individuare suggerimenti discutibili e potenziali abusi. Se un utente tenta ripetutamente di estrarre i dati della carta di credito del cliente da un assistente AI, il monitoraggio automatico può avvisare il tuo team di sicurezza e/o bloccare quell'utente e prevenire un data breach.
Tieni i dati sensibili fuori dai sistemi AI
Una delle strategie più efficaci per gestire il rischio dei dati dell'AI consiste nell'impedire del tutto che i dati sensibili entrino nei sistemi AI. Per raggiungere questo obiettivo è necessario un approccio su più fronti.
Innanzitutto, le organizzazioni devono scoprire i carichi di lavoro AI nascosti, poiché l'aumento dello shadow AI può inconsapevolmente espandere il blast radius e introdurre vulnerabilità. Successivamente, è essenziale individuare i flussi di dati sensibili mappando come i dati si spostano nei sistemi AI e nell'intera organizzazione: questo aiuta a individuare potenziali punti di esposizione e consente l'implementazione di controlli appropriati.
Infine, la mappatura degli account dei servizi AI con accesso ai dati sensibili è fondamentale per capire quali account possono raggiungere repository specifici, consentendo l'applicazione di controlli di accesso adeguati.
Stabilisci una strategia di implementazione sicura dell'AI
Segui questi passaggi pratici per garantire che l'AI sia implementata in modo sicuro nella sua organizzazione:
- Individua il rischio: effettua una valutazione della sicurezza dell'AI per individuare le lacune della sicurezza dell'attuale implementazione dell'AI
- Classifica i dati: implementa una scoperta e una classificazione complete dei dati per garantire che tutti i dati siano identificati e classificati
- Stabilisci criteri di governance dell'AI: definisci chiari criteri di governance dell'IA per allineare gli utenti sui dati che possono essere utilizzati, sugli scopi e sugli strumenti
- Implementa i controlli tecnici: adotta misure di sicurezza appropriate per applicare i controlli di accesso, la DLP e il monitoraggio
- Offri formazione interna: forma tutti gli utenti sulle migliori pratiche AI per un uso sicuro e protetto
- Monitora e migliora: la sicurezza dell'AI non è un progetto una tantum. Per stare al passo con il mutevole panorama della sicurezza sono necessari un monitoraggio e un miglioramento continui
Proteggi le pipeline AI con Varonis
Il numero di strumenti AI disponibili al pubblico è in crescita, così come il rischio senza precedenti che essi comportano per le organizzazioni. Un semplice prompt o un agente AI mal configurato possono esporre dati sensibili in pochi secondi.
La nostra ultima ricerca ha svelato una triste verità: il 99% delle organizzazioni ha esposto dati sensibili che l'AI può facilmente rilevare. Dopo aver analizzato quasi 10 miliardi di file in ambienti reali, il nostro Report sullo stato della sicurezza dei dati ha rivelato vulnerabilità diffuse. Dalla shadow AI all'MFA mancante, dagli utenti fantasma ai file senza etichetta, i rischi aumentano ogni giorno. Il report non solo evidenzia queste minacce, ma offre anche passaggi e strumenti praticabili per proteggere i dati in preparazione all'implementazione dell'AI.
Varonis AI Security individua in modo costante i rischi AI, segnala le violazioni attive della conformità e corregge automaticamente le esposizioni in modo che la tua organizzazione possa adottare l'AI in sicurezza.

L'AI sta avanzando rapidamente, ma, in fin dei conti, siamo solo all'inizio per quanto riguarda l'adozione da parte delle aziende. Le organizzazioni che aspettano a modernizzare le proprie difese o si attengono alla sicurezza tradizionale si ritrovano con rischi di sicurezza evidenti che continueranno a crescere.
Adottando precocemente una strategia di sicurezza AI data-first, le organizzazioni saranno meglio posizionate per innovare in modo sicuro e sostenibile.
La sicurezza dell'AI inizia con la sicurezza dei dati: domande frequenti
Perché la sicurezza dei dati è fondamentale per la sicurezza dell'AI?
I sistemi AI sono basati sui dati. Si affidano a grandi volumi di dati sensibili per la formazione, le operazioni e i risultati. Senza una solida sicurezza dei dati, l'AI può involontariamente esporre o far trapelare tali dati tramite prompt, uscite o accessi mal configurati.
Qual è il rischio maggiore con i copiloti e gli agenti AI?
Il rischio principale è la sovraesposizione dei dati sensibili. I copiloti possono collegare fonti di dati precedentemente isolate, consentendo agli utenti o agli agenti AI di accedere a informazioni che non dovrebbero mai vedere, spesso senza che nessuno se ne accorga fino a quando non si verifica una violazione.
Che cos'è lo "shadow AI" e perché è pericoloso?
Lo Shadow AI si riferisce a strumenti o servizi AI adottati al di fuori della supervisione dell'IT o della sicurezza. Questi sistemi non monitorati possono interagire con dati sensibili, determinare violazioni della conformità ed espandere la superficie di attacco dell'organizzazione.
Come faccio a tenere i dati sensibili fuori dagli LLM?
Innanzitutto, scopri e classifica tutti i dati sensibili nel tuo ambiente. Quindi, controlla quali sistemi di intelligenza artificiale e quali utenti possono accedervi. Soluzioni come Varonis AI Security rilevano automaticamente i flussi di dati sensibili e impediscono che entrino nei modelli o nei prompt dell'AI.
Nota: questo blog è stato tradotto con l'aiuto dell'AI e corretto da un traduttore umano.
O que devo fazer agora?
Listamos abaixo três recomendações para reduzir os riscos de dados na sua organização:
Agende uma demonstração conosco Veja a usabilidade de Varonis em uma sessão personalizada com base nas necessidades de segurança de dados da sua organização. Responderemos a todas as suas perguntas.
Veja um exemplo do nosso Relatório de Risco de Dados Conheça as ameaças que podem permanecer no seu ambiente. O Relatório da Varonis é gratuito e demonstra claramente como realizar a remediação automatizada.
Siga-nos no LinkedIn, YouTube et X (Twitter) Obtenha insights detalhados sobre todos os aspectos da segurança de dados, incluindo DSPM, detecção de ameaças, segurança de IA, entre outros.
