Quando usuários colam informações confidenciais em prompts do Copilot, esses dados podem ser processados fora dos limites de segurança da sua organização. Esse risco aumenta à medida que os funcionários usam o Copilot para resumir contratos, redigir e-mails com PII de clientes ou analisar relatórios financeiros internos. A causa geralmente é a falta de conscientização sobre o que o Copilot envia aos serviços de IA da Microsoft e como isso é registrado. Este artigo explica como auditar logs de prompts, identificar dados sensíveis expostos e configurar controles para evitar vazamentos antes que ocorram.
Principais Conclusões: Detectando e Prevenindo Vazamentos de Dados em Prompts do Copilot
- Centro de administração do Microsoft 365 > Auditoria > Pesquisar log de auditoria: Revise os logs de interação do Copilot para identificar prompts contendo termos sensíveis como números de cartão de crédito ou CPF.
- Microsoft Purview > Prevenção contra Perda de Dados > Políticas: Crie regras de DLP que bloqueiem ou alertem quando usuários colarem dados sensíveis em prompts do Copilot.
- Centro de administração do Microsoft 365 > Configurações > Copilot > Segurança de dados: Ative controles de nível de locatário para restringir quais dados o Copilot pode acessar e como os prompts são armazenados.
Como o Copilot Processa Prompts e Onde os Dados Podem Vazar
Quando um usuário digita um prompt no Copilot, o texto é enviado para a infraestrutura de IA da Microsoft para processamento. O prompt pode incluir dados do documento atual, e-mail ou contexto de chat. Se o usuário colar manualmente informações sensíveis, como o endereço residencial de um cliente, um segredo comercial ou um número de conta financeira, esse conteúdo se torna parte da solicitação de IA. A Microsoft registra essas interações para melhoria do serviço e auditoria de segurança, a menos que seu locatário esteja configurado de outra forma.
O risco de vazamento de dados não é que o Copilot exponha intencionalmente segredos a outros usuários. Em vez disso, trata-se de três vetores específicos:
Conteúdo do Prompt Armazenado em Logs de Auditoria
Cada interação do Copilot é registrada no log de auditoria do Microsoft 365. O log contém o texto completo do prompt e a resposta da IA. Se um administrador ou invasor obtiver acesso de leitura a esses logs, poderá ver todas as informações sensíveis que os usuários digitaram. Este é o caminho de vazamento mais comum, pois os logs de auditoria geralmente são amplamente acessíveis.
Dados Enviados ao Serviço de IA da Microsoft
Os dados do prompt são transmitidos para os endpoints do Azure OpenAI da Microsoft. Embora a Microsoft afirme que os dados não são retidos para treinamento em locatários comerciais, os dados são processados nos data centers da Microsoft. Se sua organização tiver requisitos rigorosos de residência de dados, prompts contendo dados sensíveis podem violar políticas de conformidade.
Dados Contextuais Incluídos Automaticamente
O Copilot pode extrair contexto do arquivo atual, thread de e-mail ou conversa do Teams. Um usuário pode não perceber que seu prompt inclui dados sensíveis ocultos do conteúdo ao redor. Por exemplo, um prompt como “Resuma este contrato” pode incluir os termos de preço do contrato e nomes de clientes, mesmo que o usuário não os tenha digitado explicitamente.
Etapas para Auditar Prompts do Copilot em Busca de Dados Sensíveis
Para detectar vazamentos, você deve revisar o texto real do prompt registrado em seu locatário. As etapas a seguir orientam você na pesquisa do log de auditoria, filtragem de eventos do Copilot e identificação de conteúdo sensível.
- Abra o log de auditoria do Microsoft 365
Faça login no centro de administração do Microsoft 365 em admin.microsoft.com. Vá para Conformidade > Auditoria. Você precisa da função Visualizador de Log de Auditoria ou de direitos de Administrador Global. Se a auditoria não estiver habilitada, ative-a na página de Auditoria. - Filtre por interações do Copilot
Na pesquisa do log de auditoria, defina o filtro Atividades como Interação do Copilot. Isso retorna todos os prompts e respostas gerados pelo Copilot no Word, Excel, PowerPoint, Teams e Outlook. Defina um intervalo de datas que cubra o período que deseja revisar, como os últimos 30 dias. - Exporte os registros de auditoria
Clique em Pesquisar para executar a consulta. Quando os resultados aparecerem, clique em Exportar todos os resultados para baixar um arquivo CSV. Este arquivo contém colunas para CreationTime, UserId, Operation e AuditData. A coluna AuditData contém o registro JSON completo, incluindo o texto do prompt. - Analise o JSON para extrair o texto do prompt
Abra o CSV em uma ferramenta como Excel ou PowerShell. Extraia o campo JSON AuditData. Procure pela propriedade Prompt dentro do JSON. Ela contém o texto exato digitado pelo usuário. Se você encontrar a propriedade Context, ela inclui quaisquer dados que o Copilot tenha puxado automaticamente do arquivo ou conversa. - Pesquise por padrões sensíveis
Use uma pesquisa de texto ou script para encontrar padrões como números de cartão de crédito, CPF, endereços de e-mail ou códigos de projeto internos. Por exemplo, pesquise por padrões regex como \d{4}-\d{4}-\d{4}-\d{4} para cartões de crédito ou \d{3}\.\d{3}\.\d{3}-\d{2} para CPF. Sinalize quaisquer registros correspondentes para investigação.
Falhas Comuns de Detecção e Como Evitá-las
Logs de Auditoria Não Estão Habilitados
Se a auditoria estiver desativada, nenhum dado de prompt do Copilot será registrado. Vá ao centro de administração do Microsoft 365, navegue até Conformidade > Auditoria e clique em Iniciar gravação. Isso ativa o registro para todos os serviços do Microsoft 365, incluindo o Copilot. Sem esta etapa, você não pode detectar vazamentos através de logs.
Texto do Prompt Truncado na Exportação CSV
O JSON do AuditData pode ser longo. O Excel pode truncar o conteúdo da célula. Use PowerShell ou um analisador JSON para extrair o prompt completo. Execute o seguinte comando PowerShell para ler o CSV e expandir a propriedade AuditData: Import-Csv audit.csv | ForEach-Object { $_ | Add-Member -NotePropertyName Prompt -NotePropertyValue (ConvertFrom-Json $_.AuditData).Prompt -PassThru }. Isso garante que você veja o texto completo do prompt.
Usuários Colam Dados de Fontes Externas
Um usuário pode copiar dados sensíveis de um aplicativo não Microsoft, como um CRM ou leitor de PDF, e colá-los no Copilot. O log de auditoria captura esse texto colado. No entanto, o log não mostra o aplicativo de origem. Para confirmar a fonte do vazamento, entreviste o usuário ou faça referência cruzada do timestamp do prompt com outros logs de aplicativos.
Controles de Segurança de Dados do Copilot vs. DLP Padrão do Microsoft 365
| Item | Controles de Segurança de Dados do Copilot | DLP Padrão do Microsoft 365 |
|---|---|---|
| Escopo | Controla quais dados o Copilot pode acessar e como os prompts são processados | Monitora e bloqueia dados sensíveis em todos os aplicativos e serviços do Microsoft 365 |
| Local de configuração | Centro de administração do Microsoft 365 > Configurações > Copilot > Segurança de dados | Microsoft Purview > Prevenção contra Perda de Dados > Políticas |
| Recurso principal | Restringir o Copilot de ler sites específicos do SharePoint ou pastas do OneDrive | Bloquear o compartilhamento de números de cartão de crédito, CPF ou tipos de informações sensíveis personalizadas por e-mail ou compartilhamento de arquivos |
| Bloqueio de prompts | Não pode bloquear conteúdo específico de prompts; apenas restringe fontes de dados | Pode bloquear ou alertar quando usuários colam dados sensíveis em qualquer aplicativo, incluindo o Copilot |
| Capacidade de auditoria | Registra todas as interações, mas não classifica dados sensíveis | Classifica dados sensíveis em logs de auditoria e fornece alertas |
Use os controles de segurança de dados do Copilot para limitar quais dados a IA pode ler. Use políticas DLP padrão para detectar e bloquear conteúdo sensível em prompts. As duas ferramentas funcionam juntas. Por exemplo, você pode definir uma regra DLP que seja acionada quando um usuário colar um número de cartão de crédito no Copilot e também restringir o Copilot de ler seu site de finanças do SharePoint.
O Que Fazer ao Encontrar um Vazamento de Dados Sensíveis
Se sua revisão do log de auditoria revelar um prompt contendo dados sensíveis, tome estas ações imediatamente. Primeiro, determine se os dados foram expostos apenas no log de auditoria ou também na resposta do Copilot. Se a resposta foi compartilhada com outros usuários, os dados podem ter sido expostos a destinatários não intencionais. Segundo, revogue o acesso ao log de auditoria para usuários não essenciais para limitar ainda mais a exposição. Terceiro, notifique sua equipe de segurança e siga o plano de resposta a incidentes da sua organização. Quarto, configure uma política DLP que bloqueie padrões semelhantes no futuro. Por exemplo, crie uma regra DLP que detecte CPF em prompts do Copilot e alerte o usuário antes que o prompt seja enviado.
Agora você pode auditar prompts do Copilot em busca de dados sensíveis pesquisando o log de auditoria do Microsoft 365 e analisando os registros JSON. Em seguida, configure políticas DLP no Microsoft Purview para detectar e bloquear automaticamente conteúdo sensível em prompts futuros. Para proteção avançada, habilite os controles de segurança de dados do Copilot para restringir quais arquivos a IA pode ler. Use o script de exportação do log de auditoria regularmente para detectar vazamentos precocemente.