Artigo AI·Inteligência Artificial·14 min de leitura de leitura

Prompt Engineering (2026): Guia Completo com Técnicas, Templates e Exemplos

Escrever prompts virou uma habilidade com ROI absurdo: um prompt bem estruturado transforma um modelo médio em excelente, e um modelo excelente em quase imbatível. Este guia mostra o que cada elemento faz, quando usar cada técnica e traz templates prontos para copiar.

Vitor Morais

Por Vitor Morais

Fundador do MochaLabz ·

Monte prompts em segundos

Estruture role, contexto, exemplos e formato com um template guiado.

Usar gerador de prompt →

Prompt engineering é o ato de estruturar a entrada de um modelo de linguagem para extrair dele o melhor resultado possível. Soa técnico, mas na prática é só escrever com intenção. O mesmo modelo que devolve um texto genérico com “escreva sobre marketing” devolve uma análise densa e acionável com um prompt bem montado. A diferença é método.

Este guia cobre os fundamentos que continuam valendo em 2026, separa o que virou irrelevante com modelos de reasoning e dá templates concretos para os casos mais comuns.

O modelo mental: prompt como briefing

Trate o LLM como um freelancer muito competente mas que acabou de entrar no projeto. Ele é habilidoso, mas não tem contexto. Quanto mais briefing você dá, melhor o resultado. Um prompt bom responde a cinco perguntas que todo freelancer faz:

  • Com que papel você está me contratando?
  • Qual o contexto do projeto e as restrições?
  • Qual a tarefa específica?
  • Tem exemplo de output que deu certo antes?
  • Como quer o resultado entregue?

Se seu prompt tem resposta clara para as cinco, você já está à frente de 90% do que circula por aí.

Anatomia de um prompt estruturado

Um prompt robusto tem cinco blocos, na ordem:

  1. Role: a persona que o modelo deve adotar. Dá a ele um ponto de vista e um vocabulário.
  2. Contexto e restrições: o que ele precisa saber antes de começar; regras que valem sempre.
  3. Tarefa: a ação específica. Verbo no imperativo, objeto claro.
  4. Exemplos (opcional): 2–5 demonstrações do output esperado.
  5. Formato do output: como entregar a resposta — markdown, JSON, bullets, prosa.
[ROLE] Você é editor sênior de conteúdo B2B tech, com 10 anos de experiência em SaaS de infraestrutura. [CONTEXTO] Nosso blog atrai CTOs de startups Series A–C. Tom: técnico, mas acessível; sem jargão marketeiro; sem emojis. [TAREFA] Reescreva o parágrafo abaixo reduzindo em 40% o tamanho sem perder a ideia principal. [EXEMPLO] Antes: <texto longo> Depois: <texto condensado> [INPUT] <parágrafo a reescrever> [FORMATO] Responda apenas com o texto reescrito, sem introdução.

Dica

Em Claude, substitua os colchetes por tags XML (<role>, <tarefa>). O modelo foi treinado com preferência para esse formato e a aderência às instruções aumenta mensuravelmente.

Role prompting: definindo a persona

O role não é cosplay inútil — ele ancora o modelo em um repertório específico. “Você é advogado tributarista” faz o modelo puxar vocabulário jurídico, estruturas de parecer e conservadorismo. “Você é copywriter de resposta direta” faz o oposto: frases curtas, ganchos emocionais, CTAs claros.

Role pobre: “você é um assistente”. Role rico: “você é engenheiro de software sênior, especialista em sistemas distribuídos, com viés para simplicidade e clara aversão a over-engineering”.

Contexto: o que o modelo precisa saber

Informações que dão base para uma resposta útil. Evite encher de detalhe irrelevante — rouba atenção e aumenta risco de alucinação.

  • Contexto do negócio: “somos uma fintech focada em PMEs”.
  • Contexto da audiência: “CTOs de startups Series B”.
  • Restrições de tom: “formal, sem emojis, sem humor”.
  • Restrições de tamanho: “máximo 150 palavras”.
  • O que NÃO fazer: restrições negativas valem tanto quanto positivas.

Few-shot: quando dar exemplos compensa

Few-shot prompting é mostrar 2–5 exemplos de input e output esperado antes da tarefa real. Aumenta dramaticamente a consistência em tarefas com formato específico.

Quando few-shot ajuda e quando não ajuda
CritérioAjuda muitoAjuda poucoAtrapalha
Formato estruturado (CSV, JSON)Sim
Classificação em categorias fixasSim
Transformação de texto (reescrita, tom)Sim
Geração criativa livreSim
Perguntas factuais simplesSim
Exemplos contraditórios entre siSim
Exemplos com viés forteSim
Classifique o feedback como POSITIVO, NEGATIVO ou NEUTRO. Feedback: "Adorei a interface, mas o suporte demora." Classificação: NEUTRO Feedback: "Não recomendo, bugs em todo lugar." Classificação: NEGATIVO Feedback: "Melhor ferramenta que usei no ano." Classificação: POSITIVO Feedback: "<input real aqui>" Classificação:

Chain-of-thought: pedindo raciocínio explícito

Chain-of-thought (CoT) é instruir o modelo a mostrar o raciocínio antes da resposta final. Aumenta precisão em problemas com múltiplas etapas. O trigger clássico é “pense passo a passo”.

Em 2026, com modelos de reasoning (o3, GPT-5-thinking, Claude Thinking), o CoT acontece internamente e não precisa ser pedido. Ainda assim, em modelos não-reasoning (Haiku, Flash, Mini), continua essencial para problemas lógicos.

Atenção

CoT explícito aumenta o número de tokens gerados (e o custo) em 2–5x. Use em tarefas onde a precisão importa. Para geração criativa ou resposta factual curta, pular CoT é economia sem perda de qualidade.

Output estruturado: JSON, CSV, XML

Se você vai processar a resposta em código, peça formato estruturado desde o início. Claude e GPT-5 aceitam response_format: json_object via API, que garante JSON válido. Em UI sem esse controle, peça explicitamente e mostre o schema:

Extraia os dados do email abaixo e retorne JSON com o schema: { "remetente": string, "data": string (ISO 8601), "assunto": string, "urgencia": "alta" | "media" | "baixa", "acoes_necessarias": string[] } Email: <texto do email> Retorne APENAS o JSON, sem explicação adicional.

Restrições negativas: o que NÃO fazer

Instruções negativas são subestimadas. Elas economizam iteração. Se você sempre recebe emoji onde não quer, diga. Se o modelo abusa de bullets, proíba. Se o tom sai motivacional indesejado, bloqueie.

  • “Não use emojis em nenhuma circunstância.”
  • “Não comece parágrafos com ‘é importante’.”
  • “Não invente dados; se não souber, diga que não sabe.”
  • “Não use listas com bullet; escreva em prosa corrida.”

Iteração: refinando o prompt

Raro o prompt sair perfeito na primeira. Processo iterativo:

  1. Escreva o prompt. Rode. Anote o que saiu errado.
  2. Cada problema vira uma restrição nova. “Respondeu longo demais” → adicione “máximo 100 palavras”.
  3. Se o output melhora em 5 rodadas, o prompt está bom. Se 10 rodadas e ainda falha, provavelmente falta contexto ou o modelo é inadequado pro tipo de tarefa.

Contexto

Use a técnica de “auto-crítica”: depois que o modelo responde, peça que critique a própria resposta e reescreva. Em tarefas complexas, dois turns melhoram o output mais do que um prompt super detalhado.

Templates prontos para 6 casos comuns

1. Resumo executivo de documento longo

Role: consultor de negócios sênior. Tarefa: resuma o documento anexo em formato executive summary. Estrutura obrigatória: 1. Contexto (2-3 frases) 2. Problema ou oportunidade (2-3 frases) 3. Recomendação (1 frase clara) 4. Impacto esperado (3 bullets com números) 5. Próximos passos (3 bullets) Tamanho total: máximo 250 palavras. Tom: factual, sem superlativos.

2. Revisão de código

Role: engenheiro sênior fazendo code review. Analise o código abaixo e retorne: - 3 problemas de segurança (se houver) - 3 problemas de performance (se houver) - 3 sugestões de legibilidade - Versão refatorada (apenas se valer a pena) Priorize correção > performance > estilo. Não comente código bom; foque em onde há problema real.

3. Geração de ideias de conteúdo

Role: editor de blog B2B em nicho [NICHO]. Gere 15 ideias de artigos que combinam: - Intenção de busca informacional ou comercial - Ângulo contraintuitivo ou dado específico - Título entre 50-60 caracteres - Público: [PERSONA] Formato: tabela markdown com colunas | Título | Intenção | Gancho |

4. Tradução com tom

Traduza o texto abaixo para português brasileiro. Regras: - Mantenha termos técnicos em inglês quando for convenção (deploy, commit, merge, pull request) - Tom: informal mas profissional, como desenvolvedor escrevendo para outro desenvolvedor - Adapte expressões idiomáticas para equivalentes naturais - Preserve formatação markdown original Texto: <texto em inglês>

5. Extração estruturada de dados

Extraia do texto abaixo as seguintes informações em JSON: { "empresas_mencionadas": string[], "pessoas_mencionadas": { "nome": string, "cargo": string | null }[], "datas_relevantes": string[], "valores_monetarios": string[] } Se um campo não aparecer no texto, retorne array vazio. Não invente dados. Texto: <documento>

6. Brainstorming crítico

Role: conselheiro contrarian que sempre aponta riscos. Vou descrever uma ideia de negócio. Sua tarefa: 1. Listar 3 razões genuínas pelas quais pode dar certo 2. Listar 5 razões pelas quais provavelmente vai falhar 3. Identificar o maior risco não-óbvio 4. Sugerir o menor experimento que validaria se continua Não seja educadinho. Se a ideia é ruim, diga claramente. Ideia: <descrição>

Diferenças práticas entre modelos em 2026

Comportamento dos principais LLMs com prompts
CritérioForte emFraco em
Claude Opus 4.7 / Sonnet 4.6Instrução longa, XML, nuance de tomHumor mais rígido
GPT-5 / GPT-5-thinkingVersatilidade, tool use, códigoPode divagar sem restrição
Gemini 2.5 Pro / FlashContexto ultra-longo, busca groundedCriatividade mais genérica
Llama 4 / Mistral LargeSelf-hosted, custo zeroPrecisa de prompt mais explícito

Erros clássicos que geram resposta ruim

  • Pedido vago: “fale sobre X” sem contexto ou ângulo.
  • Mistura de instruções e dados: jogar o conteúdo e o pedido no mesmo parágrafo confunde. Separe com delimitadores.
  • Restrições contraditórias: “detalhado mas curto”. Escolha um.
  • Esperar que o modelo saiba coisas privadas: se informação está no seu computador e não no treino, forneça no contexto ou use RAG.
  • Aceitar a primeira resposta: pedir revisão ou crítica melhora muito o output em tarefas complexas.

Como avaliar objetivamente um prompt

Se você usa um prompt em produção ou em volume, vale medir qualidade com método:

  1. Monte um dataset de 15–20 inputs típicos (cobrindo edge cases).
  2. Rode o prompt contra todos. Registre os outputs.
  3. Crie critérios de aprovação: fidelidade, completude, formato, tom.
  4. Pontue de 1 a 5 em cada critério. Prompt bom = média acima de 4 em todos.
  5. Itere no prompt até bater a meta. Guarde os datasets — servem para comparar versões depois.

Vai mais fundo

Para fluxos em produção, considere LLM-as-judge: um segundo modelo avalia o output do primeiro contra critérios. Mais escalável que revisão humana, e consistente o bastante para detectar regressão quando você muda prompt ou modelo.

Prompt engineering em uma frase

A regra de ouro é tratar prompt como contrato: quanto mais claro o papel, as restrições, o formato e os critérios de sucesso, mais previsível o output. Modelos ficarão cada vez mais capazes, mas quem estrutura bem a entrada sempre vai extrair mais valor do mesmo modelo que o leigo ao lado.

Perguntas frequentes

Prompt engineering ainda vale a pena com modelos tão melhores?+

Sim — e virou mais valioso, não menos. Modelos como GPT-5 e Claude Sonnet 4.6 são absurdamente capazes, mas só entregam esse teto com prompts bem estruturados. Um prompt vago continua gerando resposta genérica. A diferença é que técnicas avançadas (chain-of-thought, few-shot) ficaram opcionais — o básico bem feito (role, contexto, formato) leva 80% do resultado.

Qual a ordem certa dos elementos em um prompt?+

A estrutura robusta é: (1) role e persona, (2) contexto e restrições, (3) tarefa e input, (4) exemplos se precisar, (5) formato esperado do output. Claude e GPT-5 respondem melhor a essa ordem. Em modelos menores (Haiku, Flash), mova o formato do output para o final — reduz risco de o modelo esquecer instruções no meio de resposta longa.

Quando usar chain-of-thought vs resposta direta?+

Chain-of-thought (pedir para o modelo raciocinar passo a passo) é útil em problemas com várias etapas lógicas: matemática, planejamento, análise com trade-offs, debugging. Para tarefas criativas, geração simples ou respostas factuais curtas, atrapalha. A partir dos modelos reasoning (o3, Claude Thinking, GPT-5-thinking), o raciocínio interno vem embutido — você não precisa pedir.

Quantos exemplos (few-shot) são ideais?+

Entre 2 e 5 exemplos é o sweet spot para a maioria dos casos. Um exemplo (one-shot) às vezes basta para tarefas simples. Mais de 5 começa a comer janela de contexto sem ganho proporcional, e pode até introduzir viés se os exemplos forem enviesados. Escolha exemplos diversos que cubram casos positivos, negativos e edge cases.

Preciso usar delimitadores como XML ou markdown?+

Para prompts com múltiplas seções, sim. Claude responde excepcionalmente bem a XML (<contexto>, <exemplo>, <tarefa>) — é o formato recomendado pela Anthropic. GPT funciona melhor com markdown ou cabeçalhos simples. Delimitadores evitam que o modelo confunda instrução com conteúdo de entrada, especialmente em tarefas de análise ou resumo de texto longo.

Vale a pena salvar prompts em uma biblioteca?+

Absolutamente. Quem usa IA no dia a dia acaba com 20–50 prompts recorrentes (resumo, tradução, revisão de código, geração de idéias). Salvar numa biblioteca (Notion, TextExpander, Raycast snippets) economiza horas por semana. Melhor ainda: versione o prompt — se você ajusta, guarde o histórico para comparar output e entender o que funcionou.

Como medir se um prompt é bom?+

Três critérios: (1) consistência — rode o mesmo prompt 5 vezes e veja se o output mantém qualidade; (2) precisão — responde exatamente o que você pediu, sem inventar; (3) formato — segue a estrutura solicitada. Para uso sério, crie um dataset de 10–20 inputs típicos e rode o prompt contra todos. Ajuste até passar em 9 de 10.

Diferença prática entre prompt system, user e assistant?+

System prompt define identidade, regras permanentes e restrições (ex.: &ldquo;você é editor experiente; nunca use emojis&rdquo;). User é o que o usuário envia. Assistant é a resposta do modelo. Via API, você pode pré-popular turns do assistant para induzir comportamento. Em ChatGPT/Claude UI, só o system (como custom instructions) e user são visíveis.

#prompt engineering#chatgpt#claude#few-shot#chain of thought#role prompting#ia#templates#llm

Artigos relacionados

Inteligência ArtificialAI13 min de leitura

Como Economizar Tokens no ChatGPT, Claude e Gemini (Guia 2026)

Reduza o custo das APIs de IA em 40–80% sem perder qualidade. 12 técnicas práticas: compressão, prompt caching, modelos em cascata, RAG, batching, sumarização — com estimativas reais.

Ler artigo
#tokens#chatgpt#claude
Inteligência ArtificialAI12 min de leitura

Janela de Contexto em IA: Guia Completo (2026) com Limites por Modelo

A janela de contexto define quanto texto um LLM consegue processar de uma vez. Conheça os limites de GPT-5, Claude, Gemini e Llama em 2026, lost-in-the-middle, RAG, chunking e prompt caching.

Ler artigo
#janela contexto#context window#tokens
Inteligência ArtificialAI14 min de leitura

Chain-of-Thought Prompting: O Guia Completo (2026) com Exemplos

Chain-of-Thought (CoT) é a técnica de prompt que faz LLMs raciocinarem passo a passo, melhorando acurácia em até 60% em problemas complexos. Aprenda zero-shot, few-shot, Self-Consistency e Tree-of-Thoughts, com exemplos para ChatGPT, Claude e Gemini.

Ler artigo
#chain of thought#prompt engineering#chatgpt
Inteligência ArtificialAI13 min de leitura

Few-Shot Prompting: Como Ensinar Padrões à IA com Exemplos (2026)

Few-shot prompting é a técnica mais confiável para garantir formato e consistência em saídas de LLMs. Aprenda zero-shot vs one-shot vs few-shot, quantos exemplos usar, combinação com Chain-of-Thought e quando migrar para fine-tuning.

Ler artigo
#few shot#prompting#ia