Por que o Copilot interpreta mal seu prompt: causas comuns
🔍 WiseChecker

Por que o Copilot interpreta mal seu prompt: causas comuns

Você pede ao Copilot para resumir um relatório trimestral, mas ele retorna uma lista de recursos de produto não relacionados. Você digita uma pergunta simples sobre seu calendário, e o Copilot responde com uma resposta genérica que ignora seu intervalo de datas específico. Essas incompatibilidades desperdiçam tempo e corroem a confiança na ferramenta. A causa raiz quase nunca é um bug no próprio Copilot. Em vez disso, a interpretação errada do prompt acontece devido à forma como o Copilot processa a linguagem natural, seu acesso a fontes de dados e a estrutura da entrada fornecida. Este artigo explica as três categorias mais comuns de falha de prompt e oferece etapas concretas para diagnosticar e corrigir cada uma.

Principais conclusões: por que o Copilot interpreta mal sua entrada

  • Painel do Copilot > Configurações > Fontes de dados: Controla quais dados do Microsoft Graph o Copilot pode ler — se uma fonte estiver ausente, o Copilot não consegue acessar as informações solicitadas.
  • Injeção de prompt de sistema do Copilot: Adicionar instruções de contexto extras no início do prompt altera a forma como o Copilot interpreta toda a solicitação.
  • Histórico de chat do Copilot: As interações anteriores na mesma conversa influenciam a resposta atual — limpar o histórico redefine o contexto.

Por que o Copilot interpreta prompts de forma diferente do esperado

O Copilot usa modelos de linguagem grandes que preveem a próxima palavra mais provável com base no texto fornecido e nos dados que pode acessar. Quando o prompt é ambíguo, o modelo escolhe a interpretação mais provável com base em seus dados de treinamento. Isso não é o mesmo que entender sua intenção. O modelo não tem memória de conversas passadas, a menos que a janela de chat atual mantenha o histórico. Ele também não pode fazer perguntas esclarecedoras. Em vez disso, faz um único palpite e gera uma resposta com base nesse palpite.

Três fatores causam a maioria das interpretações erradas:

Linguagem ambígua ou vaga

Se seu prompt contém pronomes sem antecedentes claros, o Copilot pode escolher o referente errado. Por exemplo, digitar “resuma as notas da reunião e envie-as para a equipe” pode significar enviar o resumo ou enviar as notas originais. O Copilot geralmente escolhe a ação mais comum — enviar o resumo — mesmo que você quisesse as notas.

Permissões de fonte de dados ausentes

O Copilot só pode recuperar informações de fontes do Microsoft Graph que estão habilitadas em seu locatário e licenciadas para sua conta. Se você pedir dados de um site do SharePoint que não está indexado, o Copilot responderá com conhecimento genérico ou recusará a solicitação. O prompt em si pode estar correto, mas o pipeline de dados está bloqueado.

Vazamento de contexto da conversa

Quando você continua uma conversa sem redefinir o chat, o Copilot carrega as interações anteriores. Um prompt que funcionava isoladamente pode falhar dentro de uma longa thread porque o modelo incorpora contexto desatualizado ou irrelevante de mensagens anteriores.

Como diagnosticar e corrigir a interpretação errada do prompt

Use as etapas a seguir para identificar qual fator está causando o problema e corrigi-lo.

  1. Abra um novo chat do Copilot
    Clique no botão Novo Chat no painel do Copilot. Isso limpa todo o histórico da conversa e remove qualquer contexto de interações anteriores. Teste seu prompt novamente na janela de chat vazia.
  2. Reescreva seu prompt usando substantivos explícitos
    Substitua pronomes por nomes específicos. Em vez de “envie para a equipe”, escreva “envie o resumo da reunião para o canal da Equipe de Vendas no Teams.” Se você se referir a um documento, inclua o nome completo do arquivo ou URL.
  3. Adicione uma instrução de sistema no início do prompt
    Coloque uma diretiva clara antes de sua pergunta. Por exemplo: “Você é um analista de dados. Responda apenas com números e marcadores.” Isso altera a forma como o Copilot enquadra toda a solicitação.
  4. Verifique a disponibilidade da fonte de dados
    Abra Painel do Copilot > Configurações > Fontes de dados. Verifique se as fontes necessárias do Microsoft Graph, como SharePoint ou Exchange Online, estão habilitadas. Se uma fonte estiver ausente, entre em contato com seu administrador do Microsoft 365 para habilitá-la.
  5. Teste com um prompt de turno único
    Cole toda a sua solicitação em uma única mensagem, sem dividi-la em vários turnos. Isso impede que o Copilot use contexto de mensagens anteriores que você não pretendia.
  6. Use o modo “compor” para saída estruturada
    No Copilot para Word ou Outlook, clique no ícone Compor e selecione um formato como e-mail, resumo ou lista. Isso define uma estrutura de saída específica que reduz a ambiguidade na resposta.

Se o Copilot ainda interpretar mal os prompts após a correção principal

O Copilot retorna respostas genéricas em vez de dados específicos do locatário

Isso indica que o Copilot não consegue acessar os dados do Microsoft Graph da sua organização. A causa mais comum é uma licença ausente ou expirada para o Copilot for Microsoft 365. Verifique sua licença no centro de administração do Microsoft 365 em Cobrança > Licenças. Se a licença estiver ativa, verifique se a conta de usuário tem as permissões corretas para a fonte de dados que você está consultando.

O Copilot ignora uma instrução específica no meio do prompt

Modelos de linguagem grandes tendem a prestar mais atenção ao texto no início e no final de um prompt. Se você colocar uma instrução crítica no meio, o Copilot pode ignorá-la. Mova a diretiva mais importante para a primeira frase do prompt. Por exemplo, comece com “Liste apenas os três principais itens de ação” em vez de colocar essa instrução após uma longa descrição.

O Copilot muda seu comportamento após uma atualização do Microsoft 365

A Microsoft ocasionalmente atualiza o modelo subjacente ou o prompt de sistema do Copilot. Se um prompt que funcionava na semana passada agora retorna resultados diferentes, o modelo pode ter sido atualizado. Verifique o Centro de Mensagens do Microsoft 365 para anúncios sobre mudanças no Copilot. Se nenhuma atualização for listada, abra um ticket de suporte com um exemplo de antes e depois do prompt e da resposta.

Interpretação de prompt do Copilot: equívocos comuns vs. realidade

Item Equívoco comum Realidade
Copilot entende a intenção O Copilot lê sua mente e sabe o que você quis dizer O Copilot prevê a próxima palavra mais provável com base nos dados de treinamento e no contexto atual
Prompts longos melhoram a precisão Adicionar mais detalhes sempre ajuda o Copilot Texto extra pode introduzir ambiguidade e diluir a instrução principal
Acesso a dados é automático O Copilot pode ver todos os arquivos em seu locatário O Copilot requer permissões explícitas e fontes de dados Graph habilitadas
Histórico da conversa é ignorado Cada prompt é processado de forma independente O Copilot carrega o contexto de interações anteriores na mesma sessão de chat

O Copilot interpreta seu prompt com base nas palavras exatas que você usa, nas fontes de dados que pode acessar e no histórico da conversa atual. Ao escrever prompts explícitos, redefinir o chat quando houver vazamento de contexto e verificar as permissões das fontes de dados, você pode reduzir significativamente a interpretação errada. Para usuários avançados, considere testar prompts no Copilot Studio para visualizar como o modelo processa diferentes frases antes de enviar o prompt para os usuários finais.