Varonis debuts trailblazing features for securing Salesforce. Learn More

Apresentamos a automação de privilégios mínimos para Microsoft 365, Google Drive e Box

Saiba Mais

Segurança para IA generativa: evitando a exposição de dados do Microsoft Copilot

5 minuto de leitura
Ultima atualização 17 de Outubro de 2023
Copilot

Este artigo descreve como funciona o modelo de segurança para IA generativa do Microsoft Copilot e os riscos que devem ser mitigados para garantir uma implementação segura. 

O Microsoft Copilot é considerado a ferramenta de produtividade mais poderosa do planeta. Ele é um assistente de IA que reside em cada um dos aplicativos do Microsoft 365 — Word, Excel, PowerPoint, Teams, Outlook e assim por diante. O sonho da Microsoft é eliminar o árduo trabalho diário e permitir que as pessoas se concentrem em serem solucionadores criativos de problemas. 

O que torna o Microsoft Copilot uma fera diferente do ChatGPT e de outras ferramentas de IA generativa é que ele tem acesso a tudo em que o usuário já fez no M365. O Copilot pode pesquisar e compilar instantaneamente dados dos documentos, apresentações, e-mail, calendário, notas e contatos. 

E é aí que reside o problema para as equipes de segurança da informação. O Microsoft Copilot pode acessar todos os dados confidenciais que um usuário pode acessar, o que geralmente é demais. Em média, 10% dos dados de uma empresa no M365 estão abertos a todos os funcionários. 

O Copilot também pode gerar rapidamente novos dados confidenciais que devem ser protegidos. Antes da revolução da IA generativa, a capacidade dos seres humanos de criar e partilhar dados ultrapassava em muito a capacidade de os proteger. Basta observar as tendências de violação de dados. A IA generativa derrama gasolina neste fogo. 

Há muito o que desvendar quando se trata de IA generativa como um todo: envenenamento do modelo, alucinação, deepfakes etc. Neste post, entretanto, vou me concentrar especificamente na segurança de dados e em como sua equipe pode garantir um Microsoft Copilot seguro. 

Casos de uso do Microsoft Copilot

Os casos de uso da IA generativa com um conjunto de colaboração como o M365 são ilimitados. É fácil ver por que tantas equipes de TI e segurança estão clamando por acesso antecipado e preparando seus planos de implementação. O aumento de produtividade é enorme. 

Por exemplo, é possível abrir um documento do Word em branco e pedir ao Copilot para redigir uma proposta para um cliente com base em um conjunto de dados de destino que pode incluir páginas do OneNote, apresentações do PowerPoint e outros documentos de escritório. Em questão de segundos, uma proposta completa é apresentada. 

copilot_word_gifs_web

Aqui estão mais alguns exemplos que a Microsoft forneceu durante o evento de lançamento: 

  • O Microsoft Copilot pode participar de reuniões do Teams e resumir em tempo real o que está sendo discutido, capturar itens de ação e informar quais questões não foram resolvidas na reunião. 
  • No Outlook, ele pode ajudar a fazer a triagem da caixa de entrada, priorizar e-mails, resumir conversas e gerar respostas. 
  • No Excel, ele pode analisar dados brutos e fornecer insights, tendências e sugestões. 

Como Funciona o Microsoft Copilot

Está e uma visão simples de como um prompt do Copilot é processado: 

  • Um usuário insere um prompt em um aplicativo como Word, Outlook ou PowerPoint 
  • A Microsoft reúne o contexto comercial do usuário com base nas permissões do Microsoft 365 
  • O prompt é enviado ao LLM (como o GPT4) para gerar uma resposta 
  • A Microsoft realiza verificações responsáveis de IA pós-processamento 
  • A Microsoft gera uma resposta e comandos de volta para o aplicativo M365 

microsoft-365-copilot-flow

Fonte: https://learn.microsoft.com/en-us/deployoffice/privacy/microsoft-365-copilot 

Modelo de segurança do Microsoft 365 Copilot

Com a Microsoft, existe sempre uma tensão extrema entre produtividade e segurança. Isso ficou evidente durante a pandemia de Covid-19, quando as equipes de TI implantaram rapidamente o Microsoft Teams sem primeiro entender completamente como o modelo de segurança subjacente funcionava ou como estavam as permissões, os grupos e as políticas de link do M365 de sua organização. 

As boas notícias: 

  • Isolamento do locatário. O Copilot usa apenas dados do locatário M365 do usuário atual. A ferramenta de IA generativa não exibirá dados de outros locatários dos quais o usuário possa ser convidado, nem de locatários que possam estar configurados com sincronização entre locatários. 
  • Limites de treinamento. O Copilot não usa nenhum dos seus dados comerciais para treinar os LLMs básicos utilizados para todos os locatários. Você não deveria se preocupar com a exibição dos seus dados proprietários nas respostas a outros usuários em outros locatários. 

As más notícias: 

  • Permissões. O Copilot exige todos os dados organizacionais para os quais usuários individuais têm pelo menos permissões de visualização. 
  • Rótulos. O conteúdo gerado pelo Copilot não herdará os rótulos MPIP dos arquivos dos quais a ferramenta obteve sua resposta. 
  • Pessoas. Não há garantia de que as respostas sejam 100% factuais ou seguras, cabendo às pessoas assumirem a responsabilidade pela revisão do conteúdo gerado pela IA generativa. 

Vamos analisar as más notícias uma por uma: 

Permissões

Conceder acesso ao Copilot apenas ao que um usuário pode acessar seria uma excelente ideia se as empresas pudessem impor facilmente o menor privilégio no Microsoft 365. 

A Microsoft declara em sua documentação de segurança de dados do Copilot: 

“É importante que você use os modelos de permissão disponíveis nos serviços do Microsoft 365, como o SharePoint, para garantir que os usuários ou grupo tenham acesso certo ao conteúdo correto em sua organização”. 

Fonte: Dados, privacidade e segurança do Microsoft 365 Copilot 

Sabemos empiricamente, no entanto, que a maioria das organizações está tão longe de ser menos privilegiada quanto possível. Basta dar uma olhada em algumas estatísticas do relatório State of Cloud Permissions Risk da própria Microsoft. 

2500

Esta imagem corresponde ao que a Varonis vê quando realizamos milhares de avaliações de risco de dados para empresas que usam o Microsoft 365. Em nosso relatório, The Great SaaS Data Exposure, descobrimos que o locatário médio do M365 tem: 

  • Mais de 40 milhões de permissões exclusivas 
  • Mais de 113 mil registros confidenciais compartilhados publicamente 
  • Mais de 27 mil links de compartilhamento 

Por que isso acontece? As permissões do Microsoft 365 são extremamente complexas. Pense em todas as maneiras pelas quais um usuário pode obter acesso aos dados: 

  • Permissões diretas 
  • Permissões de grupos do Microsoft 365 
  • Permissões locais do SharePoint (com níveis personalizados) 
  • Acesso de convidado 
  • Acesso externo 
  • Acesso público 
  • Acesso ao link (qualquer pessoa, em toda a organização, link direto, convidado) 

Para piorar a situação, as permissões estão principalmente nas mãos dos usuários finais, e não nas equipes de TI ou de segurança. 

Rótulos

A Microsoft depende muito de rótulos de confidencialidade para impor políticas de DLP, aplicar criptografia e prevenir amplamente vazamento de dados. Na prática, porém, fazer com que os rótulos funcionem é difícil, especialmente se você depende de pessoas para aplicar rótulos de sensibilidade. 

A Microsoft pinta um quadro otimista de rotulagem e bloquei como a rede de segurança definitiva para seus dados. A realidade revela um cenário mais sombrio. À medida que as pessoas criam dados, a rotulagem é frequentemente ignorada ou fica desatualizada. 

Bloquear ou criptografar dados pode adicionar atrito aos fluxos de trabalho, e as tecnologias de rotulagem são limitadas a tipos específicos de arquivos. Quanto mais rótulos uma organização tiver, mais confusa ela poderá se tornar para os usuários. Isto é especialmente intenso para organizações menores. 

A eficácia da proteção de dados baseada em rótulos certamente diminuirá quanto tivermos a IA gerando muito mais dados que exigem rótulos precisos e com atualização automática. 

Meus rótulos estão corretos?

A Varonis pode validar e melhorar a rotulagem de confidencialidade da Microsoft em uma organização, verificando, descobrindo e corrigindo as informações: 

  • Arquivos confidenciais sem rótulo 
  • Arquivos confidenciais com rótulos incorretos 
  • Arquivos não confidenciais com rótulo confidencial 

Pessoas

A IA generativa pode tornar as pessoas preguiçosas. O conteúdo gerado por LLMs como GPT4 não é apenas bom, é ótimo. Em muitos casos, a velocidade e a qualidade ultrapassam e muito o que uma pessoa pode fazer. Como resultado, as pessoas começam a confiar cegamente na IA para criar respostas seguras e precisas. 

Já vimos cenários do mundo real em que o Microsoft Copilot elabora uma proposta para um cliente e inclui dados confidenciais pertencentes a outro cliente. O usuário clica em “enviar” após uma rápida olhada (ou nenhuma olhada) e agora um cenário de privacidade ou violação de dados surge à sua frente. 

Preparando a segurança da IA generativa do locatário para o Microsoft Copilot

É fundamental ter uma noção da sua postura de segurança de dados antes da implementação do Microsoft Copilot. É provável que ele esteja disponível a partir do início do próximo anos, então agora é um ótimo momento para implementar seus controles de segurança. 

A Varonis protege milhares de clientes do Microsoft 365 com nossa plataforma de segurança de dados, que fornece uma visão em tempo real do risco e a capacidade de impor automaticamente o menor privilégio. 

Nós podemos ajudá-lo a lidar com os maiores riscos de segurança com o Copilot praticamente sem nenhum esforço manual. Com a Varonis for Microsoft 365 você pode: 

  • Descobrir e classificar automaticamente todo o conteúdo gerado por IA generativa 
  • Garantir automaticamente que os rótulos MPIP sejam aplicados corretamente 
  • Aplicar automaticamente permissões de privilégio mínimo 
  • Monitorar continuamente dados confidencias no M365 e alertar e responder a comportamentos anormais 

A melhor maneira de começar é com uma avaliação gratuita. A configuração leva apenas alguns minutos e, em um ou dois dias, você terá uma visão em tempo real do risco de dados confidenciais. 

What you should do now

Below are three ways we can help you begin your journey to reducing data risk at your company:

  1. Schedule a demo session with us, where we can show you around, answer your questions, and help you see if Varonis is right for you.
  2. Download our free report and learn the risks associated with SaaS data exposure.
  3. Share this blog post with someone you know who'd enjoy reading it. Share it with them via email, LinkedIn, Reddit, or Facebook.
Try Varonis free.
Get a detailed data risk report based on your company’s data.
Deploys in minutes.
Keep reading
por-trás-do-rebranding-da-varonis
Por trás do rebranding da Varonis
Descubra a estratégia por trás do rebranding da Varonis, que envolveu uma transição completa para um arquétipo de herói e a introdução do Protector 22814.
o-que-é-uma-avaliação-de-risco-de-dados-e-por-que-você-deve-fazer
O que é uma avaliação de risco de dados e por que você deve fazer
A avaliação de risco dados é essencial para saber onde os dados estão armazenados, quem os utiliza e se estão em segurança 
ameaças-internas:-3-maneiras-pelas-quais-a-varonis-ajuda-você
Ameaças internas: 3 maneiras pelas quais a Varonis ajuda você
Ameaças internas são difíceis de combater por que os insiders podem navegar em dados confidenciais sem serem detectados 
guia-de-migração-de-dados:-sucesso-estratégico-e-práticas-recomendadas
Guia de migração de dados: sucesso estratégico e práticas recomendadas
A migração de dados precisa de um projeto robusto para evitar o impacto nos negócios e com o orçamento