Token é uma unidade de texto usada por modelos de linguagem para contar:
- quanto contexto entra (entrada)
- quanto texto sai (resposta)
- custo e limites (dependendo do modelo/provedor)
Token não é exatamente “palavra”. Pode ser:
- uma palavra inteira
- parte de uma palavra
- pontuação
Por que isso importa
Quase todos os problemas práticos com IA têm relação com tokens:
- prompt grande demais (fica caro e lento)
- contexto demais (o modelo se perde)
- histórico infinito (qualidade cai e custo sobe)
Regra prática (para operar melhor)
- prefira instruções curtas e específicas
- “contexto” é só o necessário para decidir
- use exemplos pequenos (1 ou 2) em vez de um manual inteiro
Se você quer um formato que funciona, veja: Prompt.
Tokens no OpenClaw
No OpenClaw, tokens influenciam:
- custo mensal (se você usa modelos pagos)
- quão “memória” o assistente parece ter (na verdade é contexto)
Para reduzir custo sem perder qualidade:
- use templates e regras fixas
- separe rotinas por canal/caso de uso
- não mande a conversa inteira; mande o recorte útil (resumo + itens de ação)
Próximo passo
- Guia de modelos: /blog/claude-vs-gpt-vs-gemini-qual-ia-usar/
- Templates para começar com previsibilidade: Templates