Varonis announces strategic partnership with Microsoft to accelerate the secure adoption of Copilot.

Learn more

Generative AI Security: Ensuring a Secure Microsoft Copilot Rollout

Questo articolo descrive come funziona il modello di sicurezza di Microsoft 365 Copilot e i rischi da valutare per garantire un'implementazione sicura.
Rob Sobers
5 minuto di lettura
Ultimo aggiornamento 9 aprile 2024

Microsoft Copilot has been called one of the most powerful productivity tools on
the planet.

Copilot è un assistente basato sull'intelligenza artificiale (IA) che risiede all'interno di ciascuna delle tue app Microsoft 365: Word, Excel, PowerPoint, Team, Outlook e così via. Il sogno di Microsoft è eliminare la fatica dal lavoro quotidiano e lasciare che gli esseri umani si concentrino sulla risoluzione creativa dei problemi.

Ciò che rende Copilot diverso da ChatGPT e da altri strumenti basati sulla IA è che può accedere a tutto ciò su cui hai lavorato in 365. Copilot può cercare e compilare istantaneamente dati da documenti, presentazioni, e-mail, calendario, note e contatti.

E qui sta il problema per i team di sicurezza delle informazioni. Copilot può accedere a tutti i dati sensibili a cui un utente può accedere e, troppo spesso, si tratta di parecchi dati. Una media del 10% dei dati M365 di un'azienda è a disposizione di tutti i dipendenti.

Copilot può anche generare rapidamente nuovi dati sensibili che devono essere protetti. Prima della rivoluzione dell'IA, la capacità degli esseri umani di creare e condividere dati superava di gran lunga la capacità di proteggerli. È sufficiente osservare l'andamento relativo al data breach. L'intelligenza artificiale generativa alimenta ulteriormente il fuoco.

C'è molto da svelare quando si tratta di IA generativa nel suo complesso: avvelenamento da modello, allucinazioni, deepfake, ecc. In questo post, tuttavia, mi concentrerò in particolare sulla sicurezza dei dati e su come il tuo team può garantire un'implementazione sicura di Copilot.

Casi d'uso di Microsoft 365 Copilot

I casi d'uso dell'IA generativa con una suite di collaborazione come M365 sono illimitati. È facile capire perché così tanti team IT e di sicurezza chiedono a gran voce di ottenere accesso anticipato e preparare piani di implementazione. Gli incrementi di produttività saranno enormi.

Ad esempio, è possibile aprire un documento Word vuoto e chiedere a Copilot di redigere una proposta per un cliente in base a un set di dati di destinazione, che può includere pagine OneNote, presentazioni PowerPoint e altri documenti d'ufficio, così da avere, in pochi secondi, una proposta in piena regola.

copilot_word_gifs_web

Ecco qualche altro esempio riportato da Microsoft durante l'evento di lancio:

  • Copilot può partecipare alle tue riunioni di Teams e riassumere in tempo reale ciò che viene discusso, acquisire elementi d'azione e dirti quali domande sono rimaste irrisolte durante la riunione. 
  • Copilot in Outlook può aiutarti a smistare la tua casella di posta, attribuire priorità alle e-mail, riassumere le discussioni e generare risposte da parte tua.
  • Copilot in Excel è in grado di analizzare dati non elaborati e fornire approfondimenti, tendenze e suggerimenti. 

Funzionamento di Microsoft 365 Copilot

Ecco una semplice panoramica di come viene elaborato un prompt Copilot:

  • Un utente inserisce un prompt in un'app come Word, Outlook o PowerPoint.
  • Microsoft raccoglie il contesto aziendale dell'utente in base alle sue autorizzazioni M365.
  • Il prompt viene inviato al LLM (come GPT4) per generare una risposta.
  • Microsoft esegue controlli IA responsabili post-elaborazione.
  • Microsoft genera una risposta e invia comandi all'app M365. 

Fonte: https://learn.microsoft.com/en-us/DeployOffice/privacy/microsoft-365-copilotFonte: https://learn.microsoft.com/en-us/deployoffice/privacy/microsoft-365-copilot 

Modello di sicurezza Microsoft 365 Copilot

With collaboration tools, there is always an extreme tension between productivity and security.

Questo si è visto durante l'epidemia di COVID-19, quando i team IT hanno implementato rapidamente Microsoft Teams senza prima comprendere appieno come funzionava il modello di sicurezza sottostante o quanto fossero efficaci le autorizzazioni, i gruppi e le politiche di collegamento M365 della loro organizzazione. 

What Microsoft handles for you:

  • Isolamento del tenant. Copilot utilizza solo i dati del tenant M365 di cui dispone l'utente attivo. Lo strumento di IA non espone i dati di altri tenant in cui l'utente potrebbe essere ospite, né di eventuali tenant che potrebbero essere configurati con la sincronizzazione tra tenant.
  • Limiti dell'addestramento. Copilot non utilizza nessuno dei tuoi dati aziendali per addestrare gli LLM di base che utilizza per tutti i tenant. Non devi preoccuparti del fatto che i tuoi dati proprietari vengano visualizzati nelle risposte ad altri utenti in altri tenant. 

What you need to manage: 

  • Autorizzazioni. Copilot mostra tutti i dati organizzativi per i quali i singoli utenti dispongono almeno delle autorizzazioni di visualizzazione. 
  • Etichette. I contenuti generati da Copilot non ereditano le etichette MPIP dei file da cui ha ottenuto la risposta.
  • Umani. Non è garantito che le risposte di Copilot siano reali o sicure al 100%; gli esseri umani devono assumersi la responsabilità della revisione dei contenuti generati dall'intelligenza artificiale.

Prendiamo le cattive notizie una per una.

Autorizzazioni

Concedere a Copilot l'accesso solo a ciò a cui un utente è autorizzato sarebbe un'idea eccellente se le aziende fossero in grado di applicare facilmente il privilegio minimo in Microsoft 365. 

Microsoft afferma nella sua documentazione sulla sicurezza dei dati di Copilot:

È importante utilizzare i modelli di autorizzazione disponibili nei servizi Microsoft 365, ad esempio SharePoint, per garantire che gli utenti o i gruppi giusti abbiano l'accesso giusto ai contenuti giusti nell'organizzazione.
Fonte: dati, privacy e sicurezza per Microsoft 365 Copilot

Sappiamo empiricamente, tuttavia, che la maggior parte delle organizzazioni è lontana dal privilegio minimo possibile. È sufficiente dare un'occhiata ad alcune statistiche del rapporto State of Cloud Permissions Risk di Microsoft.

2500

Questo quadro corrisponde a ciò che Varonis vede quando ogni anno eseguiamo migliaia di Valutazioni del rischio dei dati per le aziende che utilizzano Microsoft 365. Nel nostro report, The Great SaaS Data Exposure, abbiamo scoperto che il tenant M365 medio ha:

  • Oltre 40 milioni di autorizzazioni uniche
  • Oltre 113.000 dati sensibili condivisi pubblicamente
  • Oltre 27.000 link di condivisione

Perché questo accade? Le autorizzazioni di Microsoft 365 sono estremamente complesse. Pensa a come un utente può accedere ai dati:

  • Autorizzazioni utente dirette
  • Autorizzazioni gruppo Microsoft 365
  • Autorizzazioni locali SharePoint (con livelli personalizzati)
  • Accesso ospite
  • Accesso esterno
  • Accesso pubblico
  • Accesso ai link (chiunque, a livello di organizzazione, diretto, ospite)

A peggiorare le cose, le autorizzazioni sono per lo più nelle mani degli utenti finali, non dei team IT o di sicurezza. 

Etichette

Microsoft fa molto affidamento sulle etichette di riservatezza per applicare i criteri DLP e la crittografia e prevenire ampiamente le perdite di dati. In pratica, però, far funzionare le etichette è difficile, soprattutto se ti affidi agli esseri umani per applicare etichette di sensibilità.

Microsoft dipinge un quadro roseo dell'etichettatura e del blocco alla stregua di una rete di sicurezza definitiva per i tuoi dati. La realtà rivela uno scenario più sconfortante. Man mano che gli esseri umani producono dati, l'etichettatura spesso rimane indietro o diventa obsoleta.

Il blocco o la crittografia dei dati può aggiungere attrito ai flussi di lavoro e le tecnologie di etichettatura sono limitate a tipi di file specifici. Maggiore è il numero di etichette esistenti in un'organizzazione, maggiore può essere la confusione per gli utenti. Questo è particolarmente importante per le organizzazioni più grandi.

L'efficacia della protezione dei dati basata sulle etichette si ridurrà inevitabilmente nel momento in cui l'intelligenza artificiale genererà ordini di grandezza di dati che richiederanno etichette precise e aggiornate in automatico.

Le mie etichette sono a posto?

Varonis può convalidare e migliorare l'etichettatura di riservatezza Microsoft di un'organizzazione analizzando, individuando e correggendo:

  • File sensibili senza etichetta
  • File sensibili con un'etichetta errata
  • File non sensibili con un'etichetta sensibile
 

Umani

L'IA può rendere gli esseri umani pigri. I contenuti generati dai LLM, come GPT4, non sono solo soddisfacenti, ma anche straordinari. In molti casi, la velocità e la qualità superano di gran lunga ciò che può fare un essere umano. Di conseguenza, le persone iniziano a fidarsi ciecamente dell'IA per creare risposte sicure e precise.  

Abbiamo già visto scenari reali in cui Copilot redige una proposta per un cliente e include dati sensibili appartenenti a un cliente completamente diverso. L'utente fa clic su "invia" dopo aver dato un'occhiata veloce (o senza darla) ed ecco uno scenario di violazione della privacy o dei dati.

Preparazione della sicurezza del tenant per Copilot

Prima di implementare Copilot, è fondamentale avere ben presente la situazione relativa alla sicurezza dei dati. È probabile che Copilot diventi generalmente disponibile all'inizio del prossimo anno, quindi adesso è il momento ideale per mettere in atto i controlli di sicurezza.

Varonis protegge migliaia di clienti Microsoft 365 con la nostra Data Security Platform, che offre una visione in tempo reale del rischio e la possibilità di applicare automaticamente il privilegio minimo. 

 

Possiamo aiutarti ad affrontare i principali rischi per la sicurezza con Copilot praticamente senza impegno manuale. Con Varonis for Microsoft 365, puoi:

  • Rileva e classifica automaticamente tutti i contenuti sensibili generati dall'IA.
  • Assicurati automaticamente che le etichette MPIP siano applicate correttamente. 
  • Applica automaticamente le autorizzazioni con il privilegio minimo.
  • Monitora in modo continuo i dati sensibili in M365 e avvisa e rispondi a comportamenti anomali.

È preferibile iniziare con una valutazione del rischio gratuita. La configurazione richiede pochi minuti e in uno o due giorni avrai una visione in tempo reale del rischio relativo ai dati sensibili.

What should I do now?

Below are three ways you can continue your journey to reduce data risk at your company:

1

Schedule a demo with us to see Varonis in action. We'll personalize the session to your org's data security needs and answer any questions.

2

See a sample of our Data Risk Assessment and learn the risks that could be lingering in your environment. Varonis' DRA is completely free and offers a clear path to automated remediation.

3

Follow us on LinkedIn, YouTube, and X (Twitter) for bite-sized insights on all things data security, including DSPM, threat detection, AI security, and more.

Try Varonis free.

Get a detailed data risk report based on your company’s data.
Deploys in minutes.

Keep reading

Varonis tackles hundreds of use cases, making it the ultimate platform to stop data breaches and ensure compliance.