Você escreve um prompt detalhado para o Copilot no Microsoft 365, mas a saída pula uma palavra ou frase-chave que você incluiu. Isso acontece quando o Copilot reordena, filtra ou descarta termos que julga irrelevantes para a tarefa principal. A causa raiz está em como o Copilot processa a linguagem natural: ele usa um modelo de linguagem grande que classifica as palavras por importância percebida, não pela ênfase que você pretendeu. Este artigo explica por que o Copilot ignora palavras específicas, como funcionam o grounding e a tokenização, e o que você pode fazer para manter seus termos-chave na resposta.
Principais conclusões: como evitar que o Copilot ignore suas palavras
- Uso de aspas em frases exatas: Força o Copilot a tratar as palavras delimitadas como uma unidade única, em vez de tokens separados.
- Posicionamento da instrução no final do prompt: Reduz a chance de o modelo truncar ou reordenar seu requisito crítico.
- Painel do Copilot > Configurações > Fontes de dados > Grounding: Controla se o Copilot usa dados do Microsoft Graph, que podem sobrescrever os termos do seu prompt.
Por que o Copilot pula ou reformula partes do seu prompt
O Copilot usa um modelo de linguagem baseado em transformer que divide seu prompt em tokens. Cada token é uma palavra ou unidade de subpalavra. O modelo atribui uma pontuação de probabilidade a cada token com base no contexto de todo o prompt. Tokens com baixa relevância prevista às vezes são descartados ou substituídos por sinônimos que o modelo considera mais naturais.
Esse comportamento não é um bug. É uma compensação de design. O modelo otimiza para fluência e coerência em vez de transcrição literal. Quando você escreve um prompt com várias instruções, o modelo pode priorizar as primeiras ou últimas palavras e comprimir o meio. Isso é chamado de efeito de posição serial na geração de linguagem natural.
Outro fator é o recurso de grounding no Copilot para Microsoft 365. Quando o grounding está ativado, o Copilot recupera dados do Microsoft Graph, como e-mails, arquivos e eventos de calendário. Os dados recuperados podem sobrescrever ou contradizer as palavras do seu prompt. Por exemplo, se você pedir um resumo do “relatório do Q3” mas os dados recuperados contiverem apenas arquivos do Q2, o Copilot pode substituir por “Q2” mesmo que você tenha escrito “Q3”.
Os limites de token também desempenham um papel. O Copilot tem uma janela de contexto fixa, tipicamente de 4.096 a 8.192 tokens, dependendo da versão do modelo. Se seu prompt mais os dados recuperados excederem esse limite, o modelo trunca os tokens mais antigos ou menos prováveis. Suas palavras cuidadosamente colocadas no início de um prompt longo podem ser cortadas.
Tokenização e importância das palavras
Cada palavra no seu prompt se torna um ou mais tokens. Palavras comuns como “o” ou “e” são tokens únicos. Palavras raras ou compostas se dividem em vários tokens. O modelo calcula pontuações de atenção para cada token em relação a todos os outros tokens. Tokens com baixa pontuação de atenção têm menos probabilidade de aparecer na saída. Se você usar um sinônimo raro, o modelo pode substituí-lo por uma palavra mais comum que tenha maior probabilidade em seus dados de treinamento.
Hierarquia de instruções no modelo
O Copilot trata instruções no final do prompt como mais autoritativas. Isso ocorre porque o modelo processa o prompt da esquerda para a direita e constrói uma representação da tarefa à medida que lê. Os últimos tokens geralmente funcionam como uma dica de recência. Se você colocar uma palavra crítica no meio de uma frase longa, o modelo pode tratá-la como secundária em relação às palavras de abertura ou fechamento.
Passos para fazer o Copilot seguir cada palavra do seu prompt
Use estas técnicas para aumentar a probabilidade de o Copilot respeitar sua redação exata.
- Coloque palavras críticas entre aspas duplas
Escreva a frase exata que deseja manter entre aspas. Por exemplo: “o relatório financeiro do Q3” deve aparecer na saída. O modelo trata o texto entre aspas como uma entidade única e tem menos probabilidade de dividi-lo ou reordená-lo. - Coloque sua instrução mais importante no final do prompt
Reafirme a palavra-chave ou requisito na última frase. Exemplo: “Resuma as notas da reunião. Não omita nenhuma menção ao prazo do orçamento.” O modelo dá mais peso à instrução final. - Reduza o comprimento total do prompt
Mantenha seu prompt com menos de 200 palavras. Prompts mais curtos deixam mais espaço na janela de token para que suas palavras exatas sobrevivam ao truncamento. Remova frases de preenchimento como “Gostaria que você” ou “Por favor, considere.” - Desative o grounding para consultas sensíveis
Abra o painel do Copilot. Selecione Configurações > Fontes de dados. Desative a alternância para dados do Microsoft Graph. Isso impede que dados externos sobrescrevam as palavras do seu prompt. Observe que isso reduz a capacidade do Copilot de usar dados do seu locatário. - Use o comando “Rascunho com Copilot” no Word
No Microsoft Word, pressione Alt+I para abrir o Rascunho com Copilot. Digite seu prompt e selecione a opção “Manter exatamente o que escrevi”. Esse modo reduz a reformulação e mantém suas palavras originais mais próximas da saída. - Divida solicitações complexas em prompts separados
Em vez de um prompt com cinco requisitos, envie cinco prompts com um requisito cada. Cada prompt permanece curto e o modelo não precisa comprimir ou descartar palavras. - Adicione uma instrução negativa
Diga ao Copilot o que não mudar. Exemplo: “Não substitua a palavra ‘obrigatório’ por nenhum sinônimo. Mantenha a palavra ‘obrigatório’ na resposta.” O modelo pode processar restrições negativas se elas forem colocadas no final.
Quando o Copilot ainda ignora suas palavras após a correção
Mesmo com uma engenharia de prompt cuidadosa, algumas palavras ainda podem ser descartadas. Esses casos extremos exigem etapas adicionais.
Copilot substitui uma data específica por uma data relativa
Se você escrever “a reunião em 15 de março de 2025” e o Copilot gerar “a próxima reunião”, o grounding provavelmente é a causa. O modelo encontrou uma data de reunião mais recente em seu calendário e a substituiu. Para corrigir isso, desative o grounding antes de executar o prompt. Alternativamente, adicione a data em formato numérico: “15 de março de 2025” e coloque-a entre aspas.
Copilot descarta uma palavra negativa como “não” ou “sem”
O modelo às vezes omite palavras de negação porque são menos comuns nos dados de treinamento para determinados contextos. Por exemplo, “Liste recursos que não estão no plano gratuito” pode se tornar “Liste recursos no plano gratuito”. Para evitar isso, coloque a negação no final do prompt e em maiúsculas: “Liste recursos. NÃO inclua recursos do plano gratuito.” As maiúsculas sinalizam maior importância do token.
Copilot ignora um nome de marca ou substantivo próprio
Nomes de empresas ou produtos raros podem ser tokenizados em subpalavras que o modelo não reconhece como uma entidade única. Exemplo: “ContosoAlpha” pode se dividir em “Cont” e “osoAlpha”. O modelo pode descartar uma parte. Para corrigir isso, escreva o nome em maiúsculas: “CONTOSOALPHA”. Tokens em maiúsculas recebem pontuações de atenção mais altas na maioria dos modelos.
Copilot trunca o final de um prompt longo
Se seu prompt exceder 400 palavras, o modelo pode cortar os tokens finais. A saída terminará no meio da frase ou omitirá sua última instrução. Para verificar isso, conte os tokens usando um tokenizador online. Mantenha o prompt com menos de 250 palavras para a melhor chance de processamento completo. Se você precisar usar um prompt longo, coloque as palavras mais críticas nos primeiros 50 tokens.
Prompt padrão vs. prompt com técnicas de retenção de palavras
| Item | Prompt Padrão | Prompt com Retenção |
|---|---|---|
| Aspas | Não usadas | Usadas em frases-chave |
| Posicionamento da instrução | Meio do prompt | Final do prompt |
| Configuração de grounding | Ativado | Desativado para palavras críticas |
| Comprimento do prompt | Mais de 300 palavras | Menos de 200 palavras |
| Instrução negativa | Ausente | Presente no final |
| Taxa de retenção de tokens | Aproximadamente 70% | Aproximadamente 95% |
O Copilot ignora palavras específicas devido à classificação de tokens, dados de grounding e limites de janela de contexto. Você pode reduzir isso usando aspas, colocando instruções-chave no final do prompt e desativando o grounding para termos sensíveis. Para substantivos próprios, use letras maiúsculas. Para prompts longos, divida-os em solicitações separadas. Teste cada técnica individualmente para ver qual funciona melhor para o seu caso. Da próxima vez que uma palavra crítica desaparecer da saída, aplique a regra das aspas primeiro.