Este artigo descreve como funciona o modelo de segurança para IA generativa do Microsoft Copilot e os riscos que devem ser mitigados para garantir uma implementação segura.
O Microsoft Copilot é considerado a ferramenta de produtividade mais poderosa do planeta. Ele é um assistente de IA que reside em cada um dos aplicativos do Microsoft 365 — Word, Excel, PowerPoint, Teams, Outlook e assim por diante. O sonho da Microsoft é eliminar o árduo trabalho diário e permitir que as pessoas se concentrem em serem solucionadores criativos de problemas.
O que torna o Microsoft Copilot uma fera diferente do ChatGPT e de outras ferramentas de IA generativa é que ele tem acesso a tudo em que o usuário já fez no M365. O Copilot pode pesquisar e compilar instantaneamente dados dos documentos, apresentações, e-mail, calendário, notas e contatos.
E é aí que reside o problema para as equipes de segurança da informação. O Microsoft Copilot pode acessar todos os dados confidenciais que um usuário pode acessar, o que geralmente é demais. Em média, 10% dos dados de uma empresa no M365 estão abertos a todos os funcionários.
O Copilot também pode gerar rapidamente novos dados confidenciais que devem ser protegidos. Antes da revolução da IA generativa, a capacidade dos seres humanos de criar e partilhar dados ultrapassava em muito a capacidade de os proteger. Basta observar as tendências de violação de dados. A IA generativa derrama gasolina neste fogo.
Há muito o que desvendar quando se trata de IA generativa como um todo: envenenamento do modelo, alucinação, deepfakes etc. Neste post, entretanto, vou me concentrar especificamente na segurança de dados e em como sua equipe pode garantir um Microsoft Copilot seguro.
Os casos de uso da IA generativa com um conjunto de colaboração como o M365 são ilimitados. É fácil ver por que tantas equipes de TI e segurança estão clamando por acesso antecipado e preparando seus planos de implementação. O aumento de produtividade é enorme.
Por exemplo, é possível abrir um documento do Word em branco e pedir ao Copilot para redigir uma proposta para um cliente com base em um conjunto de dados de destino que pode incluir páginas do OneNote, apresentações do PowerPoint e outros documentos de escritório. Em questão de segundos, uma proposta completa é apresentada.
Aqui estão mais alguns exemplos que a Microsoft forneceu durante o evento de lançamento:
Está e uma visão simples de como um prompt do Copilot é processado:
Fonte: https://learn.microsoft.com/en-us/deployoffice/privacy/microsoft-365-copilot
Com a Microsoft, existe sempre uma tensão extrema entre produtividade e segurança. Isso ficou evidente durante a pandemia de Covid-19, quando as equipes de TI implantaram rapidamente o Microsoft Teams sem primeiro entender completamente como o modelo de segurança subjacente funcionava ou como estavam as permissões, os grupos e as políticas de link do M365 de sua organização.
As boas notícias:
As más notícias:
Vamos analisar as más notícias uma por uma:
Conceder acesso ao Copilot apenas ao que um usuário pode acessar seria uma excelente ideia se as empresas pudessem impor facilmente o menor privilégio no Microsoft 365.
A Microsoft declara em sua documentação de segurança de dados do Copilot:
Fonte: Dados, privacidade e segurança do Microsoft 365 Copilot
Sabemos empiricamente, no entanto, que a maioria das organizações está tão longe de ser menos privilegiada quanto possível. Basta dar uma olhada em algumas estatísticas do relatório State of Cloud Permissions Risk da própria Microsoft.
Esta imagem corresponde ao que a Varonis vê quando realizamos milhares de avaliações de risco de dados para empresas que usam o Microsoft 365. Em nosso relatório, The Great SaaS Data Exposure, descobrimos que o locatário médio do M365 tem:
Por que isso acontece? As permissões do Microsoft 365 são extremamente complexas. Pense em todas as maneiras pelas quais um usuário pode obter acesso aos dados:
Para piorar a situação, as permissões estão principalmente nas mãos dos usuários finais, e não nas equipes de TI ou de segurança.
A Microsoft depende muito de rótulos de confidencialidade para impor políticas de DLP, aplicar criptografia e prevenir amplamente vazamento de dados. Na prática, porém, fazer com que os rótulos funcionem é difícil, especialmente se você depende de pessoas para aplicar rótulos de sensibilidade.
A Microsoft pinta um quadro otimista de rotulagem e bloquei como a rede de segurança definitiva para seus dados. A realidade revela um cenário mais sombrio. À medida que as pessoas criam dados, a rotulagem é frequentemente ignorada ou fica desatualizada.
Bloquear ou criptografar dados pode adicionar atrito aos fluxos de trabalho, e as tecnologias de rotulagem são limitadas a tipos específicos de arquivos. Quanto mais rótulos uma organização tiver, mais confusa ela poderá se tornar para os usuários. Isto é especialmente intenso para organizações menores.
A eficácia da proteção de dados baseada em rótulos certamente diminuirá quanto tivermos a IA gerando muito mais dados que exigem rótulos precisos e com atualização automática.
A Varonis pode validar e melhorar a rotulagem de confidencialidade da Microsoft em uma organização, verificando, descobrindo e corrigindo as informações:
A IA generativa pode tornar as pessoas preguiçosas. O conteúdo gerado por LLMs como GPT4 não é apenas bom, é ótimo. Em muitos casos, a velocidade e a qualidade ultrapassam e muito o que uma pessoa pode fazer. Como resultado, as pessoas começam a confiar cegamente na IA para criar respostas seguras e precisas.
Já vimos cenários do mundo real em que o Microsoft Copilot elabora uma proposta para um cliente e inclui dados confidenciais pertencentes a outro cliente. O usuário clica em “enviar” após uma rápida olhada (ou nenhuma olhada) e agora um cenário de privacidade ou violação de dados surge à sua frente.
É fundamental ter uma noção da sua postura de segurança de dados antes da implementação do Microsoft Copilot. É provável que ele esteja disponível a partir do início do próximo anos, então agora é um ótimo momento para implementar seus controles de segurança.
A Varonis protege milhares de clientes do Microsoft 365 com nossa plataforma de segurança de dados, que fornece uma visão em tempo real do risco e a capacidade de impor automaticamente o menor privilégio.
Nós podemos ajudá-lo a lidar com os maiores riscos de segurança com o Copilot praticamente sem nenhum esforço manual. Com a Varonis for Microsoft 365 você pode:
A melhor maneira de começar é com uma avaliação gratuita. A configuração leva apenas alguns minutos e, em um ou dois dias, você terá uma visão em tempo real do risco de dados confidenciais.