Quando você usa o Microsoft Copilot, o serviço divide sua entrada em pequenas partes chamadas tokens. Um token equivale a aproximadamente quatro caracteres de texto ou uma fração de uma palavra. O Copilot processa prompts dentro de um limite fixo de tokens, geralmente 8.192 ou 16.384 tokens, dependendo do modelo. Se o prompt exceder esse limite, o Copilot trunca a entrada ou se recusa a responder. Este artigo explica por que os limites de tokens são importantes, como contar tokens em um prompt do Copilot manualmente e com ferramentas, e o que fazer quando um prompt é muito longo.
Principais Conclusões: Contagem de Tokens em Prompts do Copilot
- Ferramenta Tokenizer da OpenAI: Cole seu prompt no tokenizer em platform.openai.com/tokenizer para ver a contagem exata de tokens e a divisão por token.
- Regra de estimativa manual: Divida a contagem de caracteres do seu prompt por 4 para obter uma estimativa aproximada de tokens. Um prompt de 2.000 caracteres equivale a cerca de 500 tokens.
- Limite de tokens do Copilot: O modelo padrão do Copilot usa um limite de 8.192 tokens. Prompts que excedem esse limite causam truncamento ou uma resposta em branco.
Por que os Limites de Tokens Afetam as Respostas do Copilot
O Copilot usa um modelo de linguagem grande que processa texto como tokens, não palavras. Cada token é uma unidade de significado. Palavras comuns como “o” são um token. Palavras raras como “antidisestablishment” podem ser três ou mais tokens. Pontuação e espaços também contam como tokens. O modelo tem uma janela de contexto máxima, que é o número total de tokens que ele pode aceitar tanto para o prompt quanto para a resposta gerada. Quando seu prompt consome muitos tokens, o Copilot tem menos tokens disponíveis para gerar uma resposta. Se o prompt sozinho exceder o limite, o Copilot rejeita a entrada completamente.
Métodos para Contar Tokens em um Prompt do Copilot
Você tem duas maneiras confiáveis de contar tokens: usando uma ferramenta tokenizer online ou estimando manualmente. O método da ferramenta é exato. O método manual oferece uma verificação rápida quando você não pode acessar um navegador.
Método 1: Usar o Tokenizer da OpenAI
- Abra o site do tokenizer
Acesse platform.openai.com/tokenizer em qualquer navegador moderno. Esta ferramenta usa o mesmo algoritmo de tokenização do Copilot. - Cole seu prompt completo
Copie o prompt inteiro do campo de entrada do Copilot. Cole-o na caixa de texto grande na página do tokenizer. - Leia a contagem de tokens
A ferramenta exibe um número abaixo da caixa de texto chamado “Tokens”. Ela também codifica cada token com cores para que você veja como o modelo divide seu texto. - Verifique caracteres especiais
O tokenizer destaca espaços, quebras de linha e pontuação como tokens separados. Remova quebras de linha desnecessárias ou pontuação repetida para reduzir a contagem de tokens.
Método 2: Estimar Tokens Manualmente
- Conte todos os caracteres do prompt
Selecione o texto do prompt em um processador de texto ou editor de texto. Use o recurso de contagem de caracteres. No Microsoft Word, clique em Revisão > Contagem de Palavras e verifique o valor “Caracteres (sem espaços)”. - Divida a contagem de caracteres por 4
Divida o total de caracteres por 4. Um prompt com 1.200 caracteres equivale a aproximadamente 300 tokens. Esta estimativa é precisa dentro de 10% para texto em inglês. - Ajuste para código ou tabelas
Blocos de código, JSON e tabelas markdown usam mais tokens por caractere. Para esses formatos, divida por 3 em vez de 4. Um bloco JSON de 1.200 caracteres equivale a cerca de 400 tokens.
O que Acontece Quando um Prompt Excede o Limite de Tokens
O Copilot aplica um limite estrito de tokens. Quando seu prompt excede o limite, um de dois resultados ocorre. Primeiro, o Copilot trunca silenciosamente o prompt do início ou do final, dependendo da versão do modelo. Isso significa que o Copilot ignora a parte do seu prompt que está fora do limite. Segundo, o Copilot retorna uma mensagem de erro como “Esta conversa é muito longa” ou “Por favor, encurte sua mensagem.” O comportamento exato depende da interface do Copilot que você usa. No Microsoft Teams Copilot, você vê uma barra de aviso vermelha. No Copilot no Edge, a caixa de entrada fica sem resposta.
Como Reduzir a Contagem de Tokens em um Prompt
Quando seu prompt é muito longo, aplique estas técnicas para reduzir o uso de tokens sem perder o significado.
Remova Contexto Redundante
Exclua qualquer histórico de conversa anterior que não seja essencial. O Copilot inclui todo o histórico do chat na contagem de tokens. Inicie uma nova conversa se o histórico for longo.
Encurte Instruções
Substitua frases completas por palavras-chave e expressões. Em vez de “Por favor, forneça um resumo detalhado do relatório de vendas trimestral do Q3 2025”, escreva “Resuma relatório de vendas Q3 2025.” Isso reduz os tokens em aproximadamente 60%.
Remova Formatação Desnecessária
O Copilot trata símbolos markdown como asteriscos e acentos graves como tokens. Remova marcadores de negrito ou itálico se eles não adicionarem significado. Substitua listas com marcadores por itens separados por vírgula.
Problemas Comuns ao Contar Tokens
Copilot Retorna uma Resposta em Branco
Uma resposta em branco geralmente significa que o prompt excedeu o limite de tokens. Use a ferramenta tokenizer para confirmar a contagem. Reduza o comprimento do prompt e reenvie. Se o problema persistir, verifique sua licença do Microsoft 365. Alguns planos do Copilot têm um limite de tokens menor.
Tokenizer Mostra uma Contagem Diferente do Esperado
O tokenizer da OpenAI pode mostrar uma contagem diferente da contagem interna do Copilot. Isso acontece porque o Copilot usa uma versão ligeiramente mais recente do tokenizer. A diferença geralmente é inferior a 5%. Use o tokenizer como um guia, não como uma correspondência exata.
Copilot no Excel ou Word Ignora Parte do Prompt
No Copilot para aplicativos Microsoft 365, o limite de tokens inclui o contexto do documento ou planilha. Se você pedir ao Copilot para analisar uma planilha grande, os dados contam para o limite. Divida a análise em partes menores. Pergunte sobre um intervalo de cada vez.
Limites de Tokens do Copilot por Plano
| Item | Copilot Gratuito | Copilot para Microsoft 365 |
|---|---|---|
| Limite de tokens por prompt | 4.096 tokens | 8.192 tokens |
| Janela de contexto | Apenas prompt | Prompt mais contexto do documento |
| Versão do modelo | GPT-4o mini | GPT-4o |
| Comprimento máximo da resposta | 1.024 tokens | 2.048 tokens |
O Copilot Gratuito tem um limite de tokens menor. Prompts com mais de 4.096 tokens são rejeitados. O Copilot para Microsoft 365 permite 8.192 tokens e inclui dados do documento na contagem. Se você precisar de prompts mais longos, faça upgrade para o Copilot para Microsoft 365.
Agora você pode contar tokens em qualquer prompt do Copilot usando o tokenizer da OpenAI ou o método manual de divisão de caracteres. Mantenha os prompts abaixo do limite de tokens removendo texto redundante e encurtando instruções. Para documentos longos, divida o conteúdo em prompts separados. Use a ferramenta tokenizer antes de enviar um prompt crítico para evitar truncamento.