Muitos usuários corporativos se preocupam com o destino dos dados ao usar o Microsoft Copilot. Você digita um prompt no Copilot para Microsoft 365, e a IA gera uma resposta com base em seus documentos, e-mails e reuniões. A questão principal é se esses dados saem do limite seguro da sua organização. A Microsoft projetou o Copilot para processar seus prompts e recuperar informações estritamente dentro do seu tenant do Microsoft 365. Este artigo explica exatamente o que permanece dentro do seu tenant, o que cruza o limite e como o sistema mantém a conformidade com os compromissos existentes de proteção de dados.
Principais Conclusões: Residência de Dados e Limites do Tenant no Copilot
- Fontes de dados do Microsoft Graph: O Copilot recupera conteúdo apenas do Exchange Online, SharePoint Online, OneDrive for Business e Microsoft Teams do seu tenant — os dados nunca saem do seu limite de conformidade.
- Local de processamento do prompt: Seus prompts são processados na mesma região geográfica do seu tenant do Microsoft 365, usando o Azure OpenAI Service dentro dessa região.
- Sem treinamento com seus dados: A Microsoft não usa seus prompts ou as respostas geradas para treinar ou melhorar modelos de IA fundamentais.
Por que o Limite do Tenant é Importante para o Copilot
O Microsoft Copilot para Microsoft 365 é construído sobre a mesma estrutura de segurança, conformidade e privacidade do Microsoft 365. A arquitetura principal garante que o modelo de IA nunca armazene os dados da sua organização fora do seu tenant. Quando você faz uma pergunta ao Copilot, o sistema realiza duas ações. Primeiro, envia seu prompt para o Azure OpenAI Service para processamento de linguagem natural. Segundo, usa o Microsoft Graph para pesquisar dados relevantes no Exchange, SharePoint, OneDrive e Teams do seu tenant. O modelo de IA combina esses dois fluxos para gerar uma resposta. O detalhe crítico é que o modelo não retém nenhum dado do seu tenant após gerar a resposta. Todo o conteúdo recuperado permanece dentro do limite de serviço do Microsoft 365, que já é coberto pelas certificações de conformidade existentes da sua organização, como SOC 2, ISO 27001 e FedRAMP.
Como o Processo de Fundamentação Protege Seus Dados
O Copilot usa uma técnica chamada “fundamentação” para ancorar suas respostas aos seus dados específicos. Quando você digita um prompt, o Copilot primeiro identifica quais recursos do Microsoft Graph são relevantes. Em seguida, recupera esses recursos — um e-mail, um documento, uma mensagem de chat — e os passa para o modelo de linguagem grande como contexto. O modelo gera uma resposta usando apenas esse contexto e seu prompt. O modelo não tem acesso a nenhum outro dado do tenant ou fontes de dados externas. Após a entrega da resposta, o contexto é descartado. Isso significa que, mesmo que outro usuário em um tenant diferente faça a mesma pergunta, o Copilot não pode reutilizar seus dados. Cada prompt é processado de forma independente.
Passos para Verificar se os Dados do Seu Tenant Permanecem Internos
Você pode confirmar o comportamento de manipulação de dados do Copilot por meio de várias configurações do centro de administração do Microsoft 365. Essas etapas ajudam a auditar o acesso aos dados e verificar se nenhum dado do tenant é transmitido para fora do seu limite de conformidade.
- Abra o centro de administração do Microsoft 365
Faça login em admin.microsoft.com com uma conta que tenha permissões de Administrador Global ou Administrador de Conformidade. - Navegue até Configurações > Configurações da organização > Segurança e privacidade
Selecione a guia Segurança e privacidade para encontrar controles relacionados à privacidade dos serviços do Microsoft 365. - Revise a configuração Dados para experiências conectadas
Clique em Privacidade e depois selecione Dados para experiências conectadas. Essa configuração controla se a Microsoft pode usar os dados do seu tenant para melhorar os serviços do Microsoft 365. Para o Copilot, essa configuração deve estar ativada para que o serviço funcione. No entanto, ativar essa configuração não concede permissão à Microsoft para usar seus dados para treinamento de modelo. - Verifique a configuração das fontes de dados do Copilot
No centro de administração, vá para Configurações > Copilot > Fontes de dados. Esta página lista quais fontes de dados do Microsoft Graph o Copilot pode acessar. Por padrão, todas as fontes estão ativadas. Você pode desmarcar fontes específicas, como SharePoint ou Teams, para restringir o escopo de recuperação de dados do Copilot. - Revise os logs de auditoria para atividades do Copilot
Vá para Conformidade > Auditoria e pesquise por atividades chamadas “Interação do Copilot” ou “Consulta do Copilot”. Cada entrada de log mostra o usuário que fez a solicitação, o horário e os recursos acessados. Nenhum endereço IP externo ou identificador de tenant é incluído nesses logs.
Se o Copilot Ainda Apresentar Preocupações de Acesso
O Copilot retorna dados de fora do meu tenant
Se você vir conteúdo em uma resposta do Copilot que parece vir de fora da sua organização, verifique se o usuário tem acesso a recursos compartilhados. O Copilot pode recuperar conteúdo de sites do SharePoint que são compartilhados com usuários externos ou de canais do Teams que incluem membros convidados. Para restringir isso, use políticas de compartilhamento do SharePoint e Teams no centro de administração. Defina o compartilhamento como “Apenas pessoas da sua organização” para sites confidenciais.
Os dados do meu tenant aparecem no Copilot de outro tenant
Esse cenário não deve ocorrer. Se você suspeitar de um vazamento de dados, verifique se não existem links de compartilhamento externo para seus documentos. Use as políticas de Prevenção contra Perda de Dados do Microsoft 365 para bloquear o compartilhamento de conteúdo confidencial. Confirme também que a configuração do Copilot do seu tenant não inclui uma fonte de dados entre tenants, que está disponível apenas por meio de uma configuração específica de organização multi-tenant.
O Copilot usa meus dados para treinar o modelo de IA
A Microsoft afirma explicitamente que os dados do seu tenant não são usados para treinar os modelos fundamentais por trás do Copilot. O Azure OpenAI Service processa seus prompts e retorna respostas sem reter os dados. Para verificar, revise os Termos do Produto Microsoft e o Adendo de Proteção de Dados. Ambos os documentos especificam que a Microsoft não usa dados do cliente para treinamento de modelos de IA. Se você quiser garantia adicional, pode desativar a configuração “Dados para experiências conectadas”, mas isso também desativa o Copilot completamente.
| Item | O Que Permanece no Tenant | O Que Sai do Tenant |
|---|---|---|
| Texto do prompt | Processado na região, nenhuma cópia retida | Transmitido para o Azure OpenAI Service, não armazenado |
| Documentos, e-mails e chats recuperados | Permanecem no Microsoft Graph, usados apenas como contexto | Nunca transmitidos para fora do limite do tenant |
| Resposta gerada | Armazenada no log de atividades do usuário se a auditoria estiver ativada | Não usada para treinamento de modelo nem compartilhada com outros tenants |
| Identidade do usuário e ID do tenant | Usados para controle de acesso e registro em log | Não transmitidos para sistemas externos |
Agora você pode confirmar que o Microsoft Copilot para Microsoft 365 mantém os dados da sua organização dentro do limite do tenant. Use as configurações do centro de administração para auditar fontes de dados e revisar logs de auditoria para transparência total. Para um controle mais profundo, configure políticas de Prevenção contra Perda de Dados para bloquear o compartilhamento de conteúdo confidencial que o Copilot possa recuperar. Como etapa avançada, ative o Customer Lockbox para exigir aprovação explícita antes que qualquer engenheiro da Microsoft possa acessar os dados do seu tenant para fins de suporte.