Contador de Tokens
para LLMs
Cole seu prompt e veja instantaneamente quantos tokens ele consome em cada modelo — com estimativa de custo de API. Gratuito, sem cadastro.
Estimativa baseada nos padrões BPE documentados de cada modelo (±5% para texto comum). Nenhum provedor disponibiliza tokenizador JS oficial — para contagem exata use os SDKs Python oficiais.
Como funciona a contagem de tokens?
Modelos de linguagem não processam texto como caracteres ou palavras — eles usam tokens, que são pedaços de texto definidos pelo tokenizador de cada modelo. Em inglês, 1 token costuma corresponder a ~4 caracteres ou ~¾ de uma palavra. Em português, o número é ligeiramente maior por conta da morfologia da língua.
Os valores desta ferramenta são estimativas baseadas nas médias documentadas de cada modelo. Para contagem exata, use o endpoint oficial de tokenização de cada provedor. Para uso prático de planejamento de custo e tamanho de prompt, a estimativa é suficientemente precisa.
A estimativa de custo mostra apenas o custo de input (envio do prompt). O custo de output depende do tamanho da resposta gerada pelo modelo, que varia conforme a tarefa.