Ao usar o Microsoft Copilot, seus prompts e as respostas geradas podem ser usados pela Microsoft para melhorar seus modelos de IA. Esse processamento de dados ocorre por padrão em certas experiências do Copilot, especialmente aquelas conectadas ao serviço de consumo, e não ao locatário da sua organização. Se você deseja impedir que seus prompts sejam usados para treinamento de modelos, é necessário ajustar configurações específicas no seu ambiente Microsoft 365. Este artigo explica como o Copilot lida com seus dados, as etapas exatas para cancelar a permissão e as limitações de cada método.
Principais Conclusões: Cancelar a Permissão para Treinamento de Modelos no Copilot
- Central de administração do Microsoft 365 > Configurações > Configurações da organização > Copilot > Controles de dados: Desative a opção “Permitir que a Microsoft use seus dados para melhorar modelos de IA” para interromper o processamento de prompts para treinamento.
- Limite do locatário do Copilot para Microsoft 365: Os prompts processados dentro do seu locatário não são usados para treinamento de modelos por padrão; apenas os dados do Copilot de consumo e do Bing Chat podem ser usados.
- Painel de privacidade da Microsoft > Histórico de atividades > Copilot: Visualize e exclua prompts anteriores que podem ter sido usados para treinamento antes de você cancelar a permissão.
Por que a Microsoft Usa Prompts para Treinamento de Modelos
A Microsoft coleta prompts e respostas do Copilot para refinar seus modelos de linguagem de grande escala. Esses dados ajudam a melhorar a precisão, reduzir resultados prejudiciais e adaptar o modelo aos padrões de uso do mundo real. A coleta de dados se aplica a experiências do Copilot que não estão totalmente isoladas dentro do limite de um locatário do Microsoft 365. Por exemplo, quando você usa o Copilot por meio do serviço de consumo em copilot.microsoft.com ou pelo aplicativo Copilot no Windows, seus prompts podem ser enviados para a infraestrutura central de IA da Microsoft para treinamento. Em contraste, o Copilot para Microsoft 365 processa prompts dentro do limite do locatário da sua organização, e esses prompts não são usados para treinamento de modelos por padrão. A principal diferença é se os dados saem do ambiente seguro do seu locatário. O Adendo de Proteção de Dados da Microsoft para clientes comerciais afirma explicitamente que prompts e respostas do Copilot para Microsoft 365 não são usados para treinar modelos de base. No entanto, o serviço de consumo do Copilot opera sob uma política de tratamento de dados diferente.
Fluxo de Dados para o Copilot de Consumo
Ao usar o serviço gratuito do Copilot, seus prompts viajam para o serviço em nuvem da Microsoft fora do seu locatário. A Microsoft pode armazenar essas interações por até 30 dias para monitoramento de segurança e melhoria do modelo. Durante esse período, seus dados podem ser usados para treinar novamente os modelos de IA subjacentes. Essa prática é divulgada na Declaração de Privacidade da Microsoft na seção sobre IA e aprendizado de máquina. Se você estiver conectado com uma conta pessoal da Microsoft, essa política se aplica. Se estiver conectado com uma conta corporativa ou de estudante, os controles no nível do locatário têm precedência.
Fluxo de Dados para o Copilot para Microsoft 365
O Copilot para Microsoft 365 processa seus prompts inteiramente dentro do locatário do Microsoft 365 da sua organização. Os dados não saem do limite do locatário para treinamento de modelos. Os compromissos contratuais da Microsoft sob o Adendo de Proteção de Dados garantem que prompts e respostas não sejam usados para treinar modelos de IA. Isso significa que, para usuários empresariais, o comportamento padrão já impede o treinamento de modelos com seus prompts. No entanto, se você também usa o serviço de consumo do Copilot com a mesma conta, precisa gerenciar as configurações de cancelamento de permissão separadamente.
Etapas para Impedir que o Copilot Use Seus Prompts para Treinamento de Modelos
O método que você usa depende se você é um usuário final com uma conta pessoal da Microsoft, um administrador de TI gerenciando um locatário ou um usuário conectado com uma conta corporativa ou de estudante. Siga a seção que corresponde ao seu cenário.
Para Administradores de TI: Desabilitar o Treinamento de Modelos no Nível do Locatário
- Entre na Central de administração do Microsoft 365
Acesse admin.microsoft.com e entre com uma conta que tenha a função de Administrador Global ou, pelo menos, a função de Administrador de IA. - Navegue até Configurações da organização
No painel de navegação esquerdo, selecione Configurações e depois Configurações da organização. - Abra as configurações do Copilot
Na guia Serviços, encontre e selecione Copilot. Se você não vir esta entrada, seu locatário pode não ter o Copilot para Microsoft 365 habilitado. - Vá para Controles de dados
Na página de configurações do Copilot, selecione a guia Controles de dados. - Desative o treinamento de modelos
Encontre a configuração chamada Permitir que a Microsoft use seus dados para melhorar modelos de IA. Coloque a chave seletora em Desativado. Isso impede que a Microsoft use quaisquer prompts e respostas do seu locatário para treinamento de modelos. - Salve as alterações
Clique em Salvar na parte inferior da página. A configuração entra em vigor imediatamente para todos os usuários do locatário.
Para Usuários Finais: Desabilitar o Treinamento de Modelos no Copilot de Consumo
Se você usa o Copilot com uma conta pessoal da Microsoft, pode cancelar a permissão por meio do Painel de Privacidade da Microsoft.
- Abra o Painel de Privacidade da Microsoft
Acesse account.microsoft.com/privacy e entre com sua conta pessoal da Microsoft. - Selecione Histórico de atividades
No Painel de Privacidade, clique em Histórico de atividades no menu esquerdo. - Encontre a atividade do Copilot
Role para baixo até a seção Copilot. Você verá uma lista de seus prompts e interações recentes. - Limpe sua atividade do Copilot
Clique em Limpar toda a atividade do Copilot. Isso exclui prompts anteriores e sinaliza à Microsoft que você não consente com o uso futuro de dados para treinamento de modelos. - Ajuste as configurações de compartilhamento de dados
Na mesma página, clique em Gerenciar suas preferências de compartilhamento de dados. Na seção Copilot, coloque a chave seletora para Melhorar modelos de IA em Desativado.
Para Usuários Conectados com uma Conta Corporativa ou de Estudante
Se você estiver conectado ao Copilot com uma conta corporativa ou de estudante, a configuração no nível do locatário da Central de administração controla o uso de dados. Você não precisa tomar nenhuma ação individual. No entanto, se você também usa o serviço de consumo do Copilot com a mesma conta, deve gerenciar as configurações de consumo separadamente usando as etapas do Painel de Privacidade acima.
Se o Copilot Ainda Usar Prompts Após Cancelar a Permissão
Depois de alterar as configurações, você ainda pode ver referências ao uso de seus prompts para treinamento. Isso pode acontecer por vários motivos.
Prompts do Copilot Ainda Aparecem no Histórico de Atividades
Limpar seu histórico de atividades remove dados passados, mas não impede a coleta futura. Você também deve desativar a configuração Melhorar modelos de IA no Painel de Privacidade. Se a chave seletora estiver ativada, novos prompts continuarão sendo usados para treinamento. Verifique se a chave seletora está em Desativado após limpar o histórico.
A Chave Seletora no Nível do Locatário Não Afeta o Copilot de Consumo
A configuração da Central de administração se aplica apenas ao Copilot para Microsoft 365 dentro do locatário. Se os usuários da sua organização também usarem o serviço gratuito do Copilot em copilot.microsoft.com enquanto estiverem conectados com uma conta pessoal, esses prompts não são cobertos pela chave seletora do locatário. Instrua os usuários a gerenciar as configurações de suas contas pessoais da Microsoft separadamente.
O Copilot no Windows Apresenta Comportamento Diferente
O botão do Copilot no Windows 11 pode usar o serviço de consumo ou a conta corporativa, dependendo do estado de conexão. Se você estiver conectado com uma conta pessoal, a política de dados de consumo se aplica. Para evitar isso, saia da sua conta pessoal no Windows e use apenas sua conta corporativa para o Copilot. Você também pode desabilitar o botão do Copilot completamente por meio da Política de Grupo: Configuração do Computador > Modelos Administrativos > Componentes do Windows > Windows Copilot > Desligar o Windows Copilot.
Copilot para Microsoft 365 vs Copilot de Consumo: Diferenças no Tratamento de Dados
| Item | Copilot para Microsoft 365 | Copilot de Consumo |
|---|---|---|
| Local de processamento de dados | Dentro do limite do locatário | Serviço em nuvem da Microsoft fora do locatário |
| Uso padrão para treinamento de modelos | Não usado para treinamento | Usado para treinamento por padrão |
| Método de cancelamento de permissão | Central de administração > Configurações da organização > Copilot > Controles de dados | Painel de Privacidade > Histórico de atividades > Gerenciar preferências de compartilhamento de dados |
| Retenção de dados para treinamento | Nenhuma | Até 30 dias |
| Controle do usuário | Apenas o administrador do locatário pode alterar | O usuário individual pode alterar |
Entender essas diferenças ajuda a aplicar o método de cancelamento de permissão correto. Para usuários empresariais, a chave seletora no nível do locatário é o único controle necessário. Para usuários pessoais, o Painel de Privacidade é o local correto para gerenciar as configurações. Para usuários que alternam entre contas corporativas e pessoais, ambos os controles devem ser configurados de forma independente.