// ferramenta gratuita

Contador de Tokens
para LLMs

Cole seu prompt e veja instantaneamente quantos tokens ele consome em cada modelo — com estimativa de custo de API. Gratuito, sem cadastro.

0 caracteres0 palavras
ModeloTokens (~)Custo input
GPT-4o / GPT-4
GPT-3.5 Turbo
Claude 3.5 Sonnet
Claude 3 Haiku
Gemini 1.5 Pro
Llama 3 (70B)

Estimativa baseada nos padrões BPE documentados de cada modelo (±5% para texto comum). Nenhum provedor disponibiliza tokenizador JS oficial — para contagem exata use os SDKs Python oficiais.

Seu prompt é tecnicamente bom?
Score 0–100 em clareza, especificidade, estrutura e robustez.
Avaliar no PromptEval →

Como funciona a contagem de tokens?

Modelos de linguagem não processam texto como caracteres ou palavras — eles usam tokens, que são pedaços de texto definidos pelo tokenizador de cada modelo. Em inglês, 1 token costuma corresponder a ~4 caracteres ou ~¾ de uma palavra. Em português, o número é ligeiramente maior por conta da morfologia da língua.

Os valores desta ferramenta são estimativas baseadas nas médias documentadas de cada modelo. Para contagem exata, use o endpoint oficial de tokenização de cada provedor. Para uso prático de planejamento de custo e tamanho de prompt, a estimativa é suficientemente precisa.

A estimativa de custo mostra apenas o custo de input (envio do prompt). O custo de output depende do tamanho da resposta gerada pelo modelo, que varia conforme a tarefa.

Por que tokens importam?
Cada modelo tem um limite máximo de tokens por requisição (context window). Ultrapassar esse limite causa erros ou truncagem silenciosa do seu prompt.
GPT-4 vs Claude: tokens
Ambos usam ~4 chars/token para inglês. Claude tende a ser ligeiramente mais eficiente em textos estruturados como JSON e código.
Como reduzir tokens?
Elimine redundâncias, use listas em vez de parágrafos, prefira instruções diretas e mova contexto estático para o system prompt.