PromptEval/Blog
May 1, 2026·5 min de leitura

Especificidade no Prompt: Por que Instruções Vagas Destroem seus Resultados

Se você já ficou frustrado porque o modelo ignorou suas instruções, a causa mais provável é simples: suas instruções eram vagas demais.

O problema com adjetivos

Palavras como "conciso", "detalhado", "simples" ou "profissional" não têm significado fixo para um LLM. Elas são interpretadas com base no contexto e nos padrões de treinamento — o que significa que o modelo vai preencher as lacunas com seu próprio julgamento, não com o seu.

"Seja conciso" pode resultar em uma resposta de 2 frases ou de 10 parágrafos dependendo do contexto. Já "máximo 15 palavras" é inequívoco.

Substitua descrições por restrições

A regra é simples: se a instrução não pode ser verificada mecanicamente, ela é vaga.

  • ❌ "Responda de forma clara" → ✅ "Use frases com no máximo 20 palavras"
  • ❌ "Seja detalhado" → ✅ "Inclua pelo menos 3 exemplos concretos"
  • ❌ "Tom profissional" → ✅ "Evite gírias; use voz passiva quando possível"

Por que isso importa na produção

Prompts vagos produzem outputs inconsistentes. Em produção, inconsistência é um bug. O modelo que funcionou perfeitamente nos seus testes pode produzir respostas completamente diferentes com inputs ligeiramente variados — e a causa quase sempre é uma instrução ambígua.

A especificidade é o principal driver de consistência em sistemas baseados em LLM.

Score your prompts before they hit production

PromptEval scores prompts 0–100 across 4 dimensions — clarity, structure, context, and output spec — and tells you exactly what to fix.

Try free →