Guia de Prompting por Modelo
Templates de system e user prompt, boas práticas e exemplos práticos para quem roda LLMs em produção.
Claude
AnthropicOpus 4.7 · Opus 4.6 · Sonnet 4.6 · Haiku 4.5 — guia atualizado para os modelos mais recentes
Boas práticas para produção
Baseado no guia oficial de prompt engineering da Anthropic ↗
Trate o Claude como um novo funcionário brilhante — ele não conhece suas convenções. Seja específico sobre formato, extensão e comportamento esperado. Instruções vagas geram outputs vagos.
Crie um dashboard de analyticsCrie um dashboard de analytics. Inclua o máximo de features e interações relevantes. Vá além do básico para uma implementação completa.Tags XML ajudam o Claude a parsear prompts complexos sem ambiguidade, especialmente quando você mistura instruções, contexto e exemplos.
Analise o texto abaixo e responda a pergunta de forma técnica considerando o histórico do usuário: [texto] [histórico] [pergunta]<contexto>[histórico do usuário]</contexto>
<documento>[texto a analisar]</documento>
<tarefa>[pergunta específica]</tarefa>
<formato>Resposta técnica em até 3 parágrafos.</formato>Mesmo uma frase de role no system prompt faz diferença. Adicionar contexto sobre POR QUE uma instrução existe ajuda o Claude a generalizar corretamente.
system="Você é um assistente de suporte especializado em fintech. Priorize clareza sobre completude — nossos clientes são não-técnicos."Exemplos são a forma mais confiável de guiar formato, tom e estrutura. Envolva em <example> tags para o Claude distinguir exemplos de instruções. Use 3-5 exemplos diversos que cubram edge cases.
"Seja educado" é aspiracional e inútil. "NÃO invente informações. NÃO faça promessas de desconto. Se não tiver certeza, escale para humano." — isso é operacional e funciona.
O Claude calibra extensão pela complexidade percebida da tarefa. Se seu produto depende de um nível fixo de output, especifique explicitamente.
Seja conciso. Pule contexto não-essencial. Mantenha exemplos mínimos. Responda em no máximo 3 parágrafos.Template base copiável
Template com as melhores práticas da Anthropic: separação clara de responsabilidades, tags XML para estrutura, e formato de output explícito.
Estrutura de mensagens
O Claude usa três roles distintos na API. O system define comportamento persistente (persona, tom, restrições). O user contém a tarefa ou pergunta. O assistant é a resposta gerada. Referência da API ↗
Níveis de esforço (Opus 4.7 / Sonnet 4.6)
O parâmetro effort controla profundidade de raciocínio vs. custo de tokens. Ajuste conforme seu caso de uso. Docs extended thinking ↗
Máxima performance. Pode pensar demais em tarefas simples.
Ideal para coding e agentes. Melhor custo-benefício em tarefas complexas.
Balanceado. Mínimo recomendado para tarefas que exigem raciocínio.
Sensível a custo. Troca inteligência por velocidade.
Tarefas curtas e latência crítica. Não usar para raciocínio complexo.
Thinking adaptativo
Claude Opus 4.7, Opus 4.6 e Sonnet 4.6 usam adaptive thinking — o modelo decide quando e quanto raciocinar com base na complexidade da query e no nível de effort. Use para agentes multi-step, coding, e tarefas longas.
"Thinking adiciona latência e deve ser usado apenas quando melhora significativamente a qualidade. Em caso de dúvida, responda diretamente.""Esta tarefa envolve raciocínio multi-step. Pense cuidadosamente pelo problema antes de responder."Exemplo completo — agente de suporte
Prompt de produção aplicando todas as boas práticas: papel claro, restrições operacionais, formato definido, edge cases cobertos, separação system/user.
GPT-5.5
OpenAIPrompts outcome-first, controle de personalidade, retrieval budget e loops de validação
Boas práticas para produção
Baseado no guia oficial de prompt engineering do GPT-5.5 ↗
O GPT-5.5 performa melhor quando o prompt define o destino e deixa o modelo escolher o caminho. Descreva o que é um bom resultado, quais constraints importam e o que a resposta final deve conter.
Primeiro inspecione A, depois B, depois compare cada campo, depois pense em todas as exceções, depois decida qual tool usar, depois chame a tool, depois explique o processo ao usuário.Resolva o problema do cliente end-to-end. Sucesso = decisão tomada com dados disponíveis + ação completa antes de responder + resposta inclui completed_actions e blockers.Personality controla como o assistente soa (tom, calor, formalidade). Collaboration style controla como ele trabalha (quando pergunta, quando assume, quão proativo). Mantenha ambos curtos.
# Personality
Você é um colaborador capaz: acessível, direto e constante. Prefira progredir a parar para esclarecimentos quando o pedido for claro o suficiente. Pergunte apenas quando a informação faltante mudaria materialmente a resposta.Retrieval budgets são stopping rules para busca. Dizem ao modelo quando evidência é suficiente — evitam loops de busca desnecessários.
Para Q&A comum, comece com uma busca ampla. Se os resultados cobrem o pedido, responda em vez de buscar de novo. Faça outra chamada apenas quando: resultado não responde a pergunta central, fato obrigatório está faltando, ou usuário pediu cobertura exaustiva.Dê ao GPT-5.5 acesso a ferramentas que permitam checar outputs quando validação for possível. Para coding, peça comandos concretos de validação.
Após fazer mudanças, rode a validação mais relevante disponível: unit tests para comportamento alterado, type/lint checks quando aplicável, build checks para pacotes afetados. Se não puder rodar validação, explique por quê e descreva o próximo melhor check.Use SEMPRE, NUNCA, deve e apenas para invariantes reais — regras de segurança, campos obrigatórios, ações que nunca devem acontecer. Para julgamento (quando buscar, usar tool, perguntar), prefira decision rules.
SEMPRE use a tool de busca. NUNCA responda sem verificar. OBRIGATORIAMENTE confirme cada passo.Use a tool de busca quando a resposta requer dados que você não possui ou quando precisão factual é crítica para o resultado.Template base copiável
Estrutura oficial recomendada pela OpenAI para GPT-5.5. Mantenha cada seção curta — adicione detalhe só onde muda o comportamento.
Estrutura de mensagens
O GPT-5.5 suporta a Responses API (recomendada para agentes) e a Chat Completions API. O parâmetro instructions equivale ao system prompt. Referência da API ↗
Níveis de esforço
O GPT-5.5 é mais eficiente que versões anteriores — reavalie antes de escalar para high. O default da API é medium.
Tarefas complexas de raciocínio, código difícil, análise profunda.
Default. Balanceado para a maioria dos casos de uso.
Alto volume, latência crítica, tarefas simples e diretas.
Seu prompt segue essas boas práticas?
O PromptEval faz um review técnico do seu prompt — score 0-100, pontos críticos, tokens desperdiçados e sugestões de melhoria.
3 avaliações grátis por mês · sem cartão
Gemini 3 · Llama 3 · Mistral — guias em desenvolvimento