Guia do Modelo de Avaliação de Impacto na Privacidade do Microsoft Copilot
🔍 WiseChecker

Guia do Modelo de Avaliação de Impacto na Privacidade do Microsoft Copilot

Organizações que adotam o Copilot para Microsoft 365 devem concluir uma Avaliação de Impacto na Privacidade (PIA) para atender aos requisitos de conformidade e entender os fluxos de dados. Uma PIA identifica como o Copilot processa prompts, recupera dados e gera respostas usando o Microsoft Graph e o conteúdo do seu locatário. Sem uma avaliação estruturada, as organizações correm o risco de expor informações confidenciais ou violar regulamentações de proteção de dados como GDPR ou HIPAA. Este artigo fornece uma estrutura de modelo de PIA e explica cada seção para que você documente sua implantação do Copilot com precisão.

Principais Conclusões: Seções do Modelo de PIA do Copilot

  • Centro de administração do Microsoft 365 > Copilot > Fontes de dados: Controla quais dados do Microsoft Graph o Copilot pode ler para respostas fundamentadas.
  • Portal de conformidade do Microsoft Purview > Classificação de dados > Tipos de informações confidenciais: Define qual conteúdo o Copilot não deve acessar ou processar.
  • Azure Active Directory > Acesso Condicional > Aplicativo Copilot: Restringe quais usuários e dispositivos podem interagir com o Copilot no seu locatário.

ADVERTISEMENT

O que uma Avaliação de Impacto na Privacidade deve cobrir para o Copilot

Uma PIA para o Copilot documenta como os dados pessoais fluem pelo sistema e quais controles existem para protegê-los. O Copilot não usa seus dados para treinar modelos de base. Ele recupera dados apenas do seu locatário do Microsoft 365 por meio do Microsoft Graph. Isso significa que os dados que o Copilot acessa são os mesmos dados que os usuários já têm permissão para ver. A PIA deve confirmar que as permissões de acesso estão configuradas corretamente e que nenhum dado confidencial é exposto a usuários não autorizados.

A avaliação também cobre residência de dados, criptografia em trânsito e em repouso, e registro de interações do Copilot. A Microsoft fornece logs de auditoria no centro de administração do Microsoft 365 e no portal de conformidade do Purview. Esses logs registram qual usuário enviou um prompt, quais fontes de dados foram consultadas e qual resposta foi gerada. A PIA deve declarar por quanto tempo os logs são retidos e quem pode revisá-los.

Diagrama de Fluxo de Dados para o Copilot

Inclua um diagrama mostrando o caminho dos dados desde o prompt do usuário até a resposta. O prompt viaja da interface do Copilot para o serviço Copilot, que envia uma solicitação ao Microsoft Graph. O Graph recupera dados relevantes do Exchange, SharePoint, OneDrive, Teams e outras cargas de trabalho. O serviço Copilot então gera uma resposta e a envia de volta ao usuário. Nenhum dado sai do limite do Microsoft 365. A PIA deve mostrar que os dados nunca passam por servidores de terceiros nem são armazenados fora do seu locatário.

Estrutura do Modelo de PIA do Copilot

Use as seguintes seções para construir sua PIA do Copilot. Cada seção aborda um requisito de conformidade específico. Modifique o modelo para corresponder às políticas de proteção de dados da sua organização.

Seção 1: Descrição do Sistema

Descreva o Copilot e seu propósito na sua organização. Informe quais cargas de trabalho do Microsoft 365 o Copilot acessa. Liste as funções de usuário que têm licenças do Copilot. Mencione a versão do Copilot e se você usa o Copilot para Microsoft 365, o Copilot Pro ou ambos.

Seção 2: Coleta e Processamento de Dados

Liste todos os tipos de dados que o Copilot processa. Isso inclui prompts de usuário, conteúdo de e-mail, documentos, transcrições de reuniões, itens de calendário e mensagens de chat. Explique que o Copilot não armazena prompts ou respostas fora do locatário. Informe que os dados são processados em tempo real e não usados para treinamento de modelo.

Seção 3: Controles de Acesso a Dados

Documente como as permissões de acesso são gerenciadas. O Copilot usa as permissões existentes do Microsoft 365. Se um usuário não puder visualizar um documento no SharePoint, o Copilot também não poderá acessá-lo. Descreva suas políticas de Acesso Condicional para o aplicativo Copilot. Mencione quaisquer rótulos de confidencialidade que impeçam o Copilot de processar determinado conteúdo.

Seção 4: Residência e Armazenamento de Dados

Informe onde os dados do seu locatário estão armazenados geograficamente. Confirme que o Copilot não move dados para uma região diferente. Mencione os padrões de criptografia usados: TLS 1.2 para dados em trânsito e AES-256 para dados em repouso. Inclua a política de retenção de dados para os logs de auditoria do Copilot.

Seção 5: Compartilhamento de Dados com Terceiros

Confirme que o Copilot não compartilha dados com nenhum serviço de terceiros, a menos que você tenha habilitado um plugin. Se plugins forem usados, liste-os e descreva quais dados cada plugin recebe. Informe que nenhum dado é compartilhado com a OpenAI ou qualquer provedor de modelo de IA externo.

Seção 6: Resposta a Incidentes e Notificação de Violação

Descreva como sua organização lida com uma violação de dados envolvendo o Copilot. Faça referência ao seu plano de resposta a incidentes existente. Informe que os logs de auditoria do Microsoft 365 serão a principal fonte para investigar incidentes relacionados ao Copilot. Inclua informações de contato do seu encarregado de proteção de dados.

ADVERTISEMENT

Preenchendo o Modelo de PIA: Instruções Passo a Passo

  1. Reúna a documentação pré-requisito
    Colete o diagrama de arquitetura do seu locatário do Microsoft 365, o relatório de licenças de usuário e a estrutura de avaliação de impacto na proteção de dados existente. Você precisará deles para preencher as seções do modelo com precisão.
  2. Abra o centro de administração do Microsoft 365
    Vá para Centros de administração > Centro de administração do Microsoft 365. Navegue até Configurações > Configurações da organização > Copilot. Revise as configurações de fonte de dados e anote quais cargas de trabalho o Copilot pode acessar.
  3. Revise os logs de auditoria do Copilot
    No portal de conformidade do Microsoft Purview, vá para Auditoria > Pesquisar log de auditoria. Filtre por Carga de trabalho: Copilot. Exporte um log de amostra para entender quais dados são registrados. Inclua o período de retenção do log na PIA.
  4. Documente as políticas de Acesso Condicional
    No centro de administração do Azure AD, vá para Segurança > Acesso Condicional > Políticas. Localize qualquer política que tenha como alvo o aplicativo Copilot. Registre o nome da política, condições e controles de concessão na PIA.
  5. Liste todos os plugins ativos do Copilot
    Na interface do Copilot, abra o menu Plugins. Anote o nome de cada plugin e seu editor. Para cada plugin, observe quais dados ele recebe. Se um plugin for de terceiros, inclua uma referência ao acordo de processamento de dados.
  6. Preencha a tabela de avaliação de riscos
    Crie uma tabela com colunas: Descrição do Risco, Probabilidade, Impacto, Mitigação. Exemplo de risco: Acesso não autorizado a dados confidenciais via Copilot. Mitigação: Rótulos de confidencialidade impedem o Copilot de processar conteúdo rotulado. Atribua uma pontuação de risco e documente a mitigação.
  7. Obtenha a aprovação
    Envie a PIA preenchida para seu encarregado de proteção de dados, equipe jurídica e equipe de segurança para revisão. Armazene o documento assinado em seu repositório de conformidade. Atualize a PIA sempre que alterar as configurações do Copilot ou adicionar novas cargas de trabalho.

Erros Comuns ao Preencher a PIA do Copilot

Presumir que o Copilot Tem Seu Próprio Armazenamento de Dados

Alguns avaliadores escrevem que o Copilot armazena prompts em um banco de dados separado. Isso está incorreto. O Copilot processa dados na memória e não persiste prompts ou respostas fora do locatário. A PIA deve declarar que os dados são efêmeros e registrados apenas para fins de auditoria.

Omitir Fluxos de Dados de Plugins

Se sua organização usa plugins de terceiros como Jira ou ServiceNow, a PIA deve descrever o fluxo de dados para esses serviços. Cada plugin pode enviar dados de prompt para seu próprio servidor. Documente o plugin, os dados enviados e o acordo de processamento de dados em vigor.

Não Atualizar a PIA Após Mudanças de Configuração

Ao habilitar uma nova carga de trabalho ou alterar as configurações de fonte de dados, a PIA fica desatualizada. Defina um ciclo de revisão recorrente a cada seis meses ou após qualquer atualização importante do Copilot. Atribua uma pessoa responsável para acompanhar as mudanças e atualizar o documento.

Comparação de Fluxo de Dados da PIA do Copilot

Item Sem Plugins Com Plugins de Terceiros
Fonte de dados Apenas Microsoft Graph Microsoft Graph mais APIs de plugins
Armazenamento de dados Sem armazenamento persistente O plugin pode armazenar dados em seus próprios servidores
Compartilhamento de dados Nenhum Dados compartilhados com o editor do plugin
Registro de auditoria Log de auditoria do Microsoft 365 Log de auditoria do Microsoft 365 mais logs do plugin
Escopo de conformidade Controles de conformidade do Microsoft 365 Deve incluir conformidade do fornecedor do plugin

Use esta tabela em sua PIA para mostrar a diferença entre uma implantação padrão do Copilot e uma com plugins. Ela ajuda os revisores a entender onde medidas adicionais de proteção de dados são necessárias.

Agora você pode concluir uma Avaliação de Impacto na Privacidade para o Copilot usando a estrutura de modelo fornecida. Comece reunindo a documentação do seu locatário e revisando as configurações de fonte de dados no centro de administração do Microsoft 365. Para uma avaliação completa, inclua o diagrama de fluxo de dados e a tabela de mitigação de riscos. Revise a PIA a cada seis meses e após qualquer alteração de configuração para manter a conformidade com as regulamentações de proteção de dados.

ADVERTISEMENT