PromptEval/Blog
15 de maio de 2026·Francisco Ferreira·8 min de leitura

Como Escrever Prompts Específicos para IA: Guia 2026

Resposta Rápida

Especificidade é a dimensão de qualidade de prompt com score mais baixo em média no leaderboard público do PromptEval — mais baixo que clareza, estrutura e robustez. O motivo é que especificidade exige trocar adjetivos vagos por critérios mensuráveis, e essa troca é contraintuitiva: parece que você está sendo excessivamente detalhista quando na verdade está sendo preciso. As 5 alavancas: formato de saída, restrições de tamanho, público definido, critérios mensuráveis e restrições negativas.

Dos 21 prompts no leaderboard público do PromptEval, especificidade é a dimensão com score médio mais baixo — abaixo de clareza, estrutura e robustez. O padrão é consistente: prompts que parecem bem escritos, com papel definido e estrutura clara, ainda falham em especificidade porque usam palavras como "profissional", "conciso" e "relevante" onde deveriam ter restrições concretas.

A razão não é descuido. É que adjetivos vagos são como o autor descreve o output ideal para si mesmo — mas o modelo não tem acesso ao que o autor está imaginando. Ele só tem acesso ao texto.

Especificidade não é clareza nem estrutura

As três dimensões são independentes e se aplicam a perguntas diferentes.

Clareza responde: o modelo sabe o que você quer? A intenção é identificável sem ambiguidade? (Guia completo sobre clareza de prompts)

Estrutura responde: o prompt está organizado de forma que o modelo processe as informações na ordem e com o peso certos? (Guia completo sobre estrutura de prompts)

Especificidade responde: as instruções são concretas o suficiente para o modelo saber quando está correto? Os critérios são mensuráveis?

Um prompt pode ser claro e bem estruturado mas completamente vago em especificidade. "Você é um copywriter experiente. Escreva um email de vendas persuasivo para nosso produto SaaS. Mantenha o tom profissional mas engajante." Clareza: alta. Estrutura: ok. Especificidade: baixíssima — "persuasivo", "profissional" e "engajante" não dizem ao modelo como avaliar se acertou.

O Teste da Mensurabilidade

O Teste da Mensurabilidade é a verificação mais rápida de especificidade. Para cada instrução no prompt, faça a pergunta:

"Como eu saberia, ao ler o output, se o modelo falhou nessa instrução específica?"

Se você não consegue responder, a instrução é vaga e precisa ser substituída por algo mensurável.

Instrução vaga Passa no Teste? Versão mensurável
"Seja conciso" "Máximo 60 palavras"
"Tom profissional" "Sem gírias, sem emojis, sem frases de abertura como 'Olá!'"
"Seja persuasivo" "Inclua um benefício concreto e um único CTA no último parágrafo"
"Use linguagem simples" "Nível Flesch-Kincaid 6ª série — sem jargão técnico ou siglas"
"Máximo 3 bullet points" Já é mensurável
"Retorne um JSON com chaves: title, summary, tags[]" Já é mensurável

As 5 Alavancas de Especificidade

Cinco categorias de instrução que, quando concretas, eliminam a maior parte da vagueza de qualquer prompt.

1. Formato de saída — o que o output parece visualmente

Formato é a alavanca de especificidade com impacto mais imediato. Sem formato definido, o modelo escolhe o que considera mais natural para o tipo de tarefa — que raramente coincide com o que você precisa.

Formatos mensuráveis: JSON com schema definido, tabela Markdown com colunas especificadas, lista numerada, lista com bullet points, parágrafo único, seções com H2s, código em bloco, resposta em uma frase.

Vago: "Analise os pontos fortes e fracos deste produto."
Específico: "Analise os pontos fortes e fracos deste produto. Retorne uma tabela Markdown com duas colunas: Pontos Fortes e Pontos Fracos. Máximo 4 linhas por coluna, cada célula com no máximo 15 palavras."

2. Restrições de tamanho — comprimento exato, não relativo

"Breve", "detalhado", "extenso" e "resumido" não são restrições — são intenções. O modelo calibra tamanho pelo contexto, e o contexto raramente produz o tamanho que você precisa.

Restrições mensuráveis: número de palavras, número de caracteres, número de parágrafos, número de bullet points, número de itens em uma lista, número de exemplos.

Vago: "Escreva um resumo executivo breve."
Específico: "Escreva um resumo executivo de 150 palavras em 3 parágrafos: contexto do problema (50 palavras), solução proposta (60 palavras), próximo passo recomendado (40 palavras)."

3. Público-alvo — quem vai ler, não qual o nível geral

Definir público como "leigos" ou "especialistas" ainda é vago. O modelo precisa de uma referência concreta para calibrar vocabulário, profundidade e tom.

Referências mensuráveis: cargo específico ("um CFO sem background técnico"), nível de familiaridade com o produto ("um usuário que nunca usou a ferramenta"), contexto de leitura ("lido em 30 segundos numa notificação push"), objetivo do leitor ("está decidindo se aprova o budget, não se vai implementar").

Vago: "Explique esta feature para usuários não técnicos."
Específico: "Explique esta feature para um gerente de marketing que usa Excel mas nunca configurou uma integração de API. O objetivo é convencê-lo de que não precisa de suporte de TI para começar."

4. Critérios de qualidade — o que "bom" significa neste contexto

Esta é a alavanca mais frequentemente ignorada. Quem escreve o prompt sabe o que "bom" significa — mas não colocou isso no prompt. O modelo vai usar o significado mais genérico disponível.

Critérios mensuráveis: "inclui o nome do cliente na primeira frase", "não menciona preço antes do benefício", "cada bullet point começa com um verbo de ação", "cita pelo menos um dado numérico do input fornecido", "não usa as palavras X, Y ou Z".

Vago: "Escreva um email de follow-up eficaz."
Específico: "Escreva um email de follow-up de 120 palavras. Critérios: (1) mencione o problema específico discutido na reunião, (2) proponha um próximo passo concreto com data, (3) não use as frases 'conforme combinado' ou 'espero que esteja bem', (4) termine com uma pergunta fechada, não aberta."

5. Restrições negativas — o que explicitamente não deve aparecer

Restrições negativas removem comportamentos padrão do modelo que você não quer. São mais eficazes do que tentar descrever sua ausência de forma positiva.

Casos de uso típicos: remover aberturas padrão ("Claro!", "Ótima pergunta!", "Certamente!"), remover disclaimers automáticos ("Como IA, não posso..."), remover conclusões genéricas ("Espero ter ajudado!"), remover um formato que o modelo aplica por padrão (como adicionar um H2 "Introdução" que você não pediu).

Vago: "Não seja genérico."
Específico: "Não abra com 'Olá', 'Oi' ou qualquer saudação. Não encerre com frases como 'Espero ter ajudado' ou 'Fico à disposição'. Não inclua disclaimers sobre limitações de IA."

Antes e depois: score de especificidade

CASO DE USO: Geração de copy para anúncio

❌ Antes — Especificidade: 39/100

"Escreva um anúncio criativo e persuasivo para nosso produto de produtividade voltado para profissionais."

✅ Depois — Especificidade: 83/100

"Escreva o copy de um anúncio do Google Ads para um app de gestão de tarefas. Headline: máximo 30 caracteres. Descrição: máximo 90 caracteres. Público: gerentes de projeto em empresas de 10 a 50 funcionários. CTA: verbo de ação + benefício imediato. Não use as palavras 'produtividade', 'eficiência' ou 'revolucionário'."

CASO DE USO: Extração de dados de texto

❌ Antes — Especificidade: 44/100

"Extraia as informações importantes deste contrato e organize de forma clara."

✅ Depois — Especificidade: 91/100

"Extraia do contrato abaixo as seguintes informações e retorne um JSON com exatamente estas chaves: partes_contratantes (array de strings), objeto_contrato (string, máximo 50 palavras), valor_total (número ou null se não mencionado), prazo_vigencia (string no formato DD/MM/AAAA a DD/MM/AAAA), clausulas_rescisao (array de strings, uma por cláusula). Se alguma informação não estiver presente, use null."

O erro de especificidade mais comum em prompts de produção

Especificar o formato mas não os critérios. Você define "retorne JSON com chaves X, Y, Z" mas não define o que vai dentro de cada chave — e o modelo preenche com o que achar melhor. O schema de saída é metade da especificidade; o conteúdo esperado dentro de cada campo é a outra metade.

Misturar restrições de tamanho relativas com absolutas. "Escreva um texto curto de no máximo 200 palavras" — "curto" e "200 palavras" às vezes contradizem dependendo do contexto. Use só o absoluto: "máximo 200 palavras".

Adjetivos que parecem específicos mas não são. "Tom formal mas acessível", "técnico mas simplificado", "detalhado mas direto" — pares de adjetivos que se contradizem sem definição do que cada um significa naquele contexto. Escolha um e defina-o por comportamentos concretos.

Para avaliar a especificidade do seu prompt antes de rodar em produção — e ver qual das outras 3 dimensões também está fraca — este guia cobre as quatro dimensões com exemplos de como cada uma falha de forma diferente.

Aplique o Teste da Mensurabilidade

Você acabou de aprender as 5 alavancas de especificidade. Veja o score exato do seu prompt — e qual das 5 ainda está vaga.

O PromptEval avalia especificidade, clareza, estrutura e robustez separadamente — 3 avaliações gratuitas, sem cartão de crédito. Avaliar meu prompt agora.

Perguntas Frequentes

O que é especificidade em um prompt de IA?

Especificidade é a propriedade que torna as instruções de um prompt concretas e verificáveis. Um prompt específico substitui adjetivos como "bom", "claro" ou "profissional" por critérios mensuráveis: "resposta de até 80 palavras", "tom direto sem linguagem corporativa", "inclua exatamente 3 exemplos". Especificidade é o que permite ao modelo saber se acertou, sem precisar adivinhar o que o autor queria dizer com cada adjetivo.

Qual é a diferença entre especificidade e clareza em prompts?

Clareza responde se o modelo sabe o que você quer — a intenção é inequívoca. Especificidade responde se as instruções são concretas o suficiente para o modelo saber como atingir o objetivo e reconhecer quando acertou. Um prompt pode ser claro e vago: "escreva um email persuasivo" é claro na intenção, mas "persuasivo" não é mensurável.

Como tornar meu prompt mais específico sem deixá-lo muito longo?

Especificidade não é sobre comprimento — é sobre trocar adjetivos vagos por restrições concretas. "Escreva de forma concisa" tem 4 palavras e zero especificidade. "Máximo 60 palavras" tem 3 palavras e especificidade total. Aplique o Teste da Mensurabilidade: para cada instrução, pergunte "como eu saberia se o modelo falhou?" Se não consegue responder, a instrução é vaga.

Restrições negativas ("não faça X") funcionam em prompts?

Sim, especialmente para remover comportamentos padrão do modelo que você não quer — aberturas genéricas, disclaimers automáticos, formatos aplicados por padrão. Restrições positivas ("use linguagem de nível 6ª série") são mais eficazes quando você sabe o que quer no lugar. Use negativas para remover, positivas para definir.

Especificidade de prompt funciona diferente em Claude vs GPT?

O efeito é consistente entre modelos — instruções concretas produzem outputs mais previsíveis em qualquer modelo atual. O que varia é a tolerância a ambiguidade: modelos mais recentes preenchem lacunas com mais coerência, o que pode mascarar problemas de especificidade em testes e revelá-los em edge cases de produção. Escreva como se o modelo não tivesse nenhuma inferência de contexto — se o prompt sobrevive a esse padrão, sobrevive a qualquer modelo.

Score your prompts before they hit production

PromptEval scores prompts 0–100 across 4 dimensions — clarity, structure, context, and output spec — and tells you exactly what to fix.

Try free →