Definição
Quando modelos de linguagem de grande escala (LLMs) se tornaram amplamente acessíveis via API e interfaces de chat, emergiu rapidamente um conjunto de práticas e técnicas para maximizar a qualidade dos resultados — não treinando o modelo, mas refinando a forma de comunicar com ele. Esse conjunto de práticas ganhou nome: Prompt Engineering.
Prompt Engineering é a disciplina de formular instruções (prompts) para sistemas de IA — especialmente LLMs — de forma a obter outputs de maior qualidade, consistência e relevância. É a interface entre a intenção humana e a capacidade do modelo: a mesma capacidade técnica subjacente produz resultados muito diferentes dependendo de como a instrução é formulada.
Não é programação no sentido tradicional — não há sintaxe formal nem compilador que indica erros. É mais próximo de uma combinação de comunicação técnica, psicologia cognitiva e experimentação empírica. Prompts bem elaborados fazem modelos que "sabem" responder corretamente de fato responder corretamente; prompts mal elaborados fazem modelos que poderiam ser úteis produzir resultados inconsistentes ou irrelevantes.
Por que prompts importam tanto
LLMs são modelos de previsão probabilística: dado o contexto (o prompt), geram o token mais provável, depois o próximo mais provável, e assim por diante. O contexto não apenas fornece informação — molda a distribuição de probabilidade sobre os tokens possíveis.
Um prompt vago ativa partes do espaço de possibilidades que são vastas e inconsistentes. Um prompt específico, com contexto adequado, formato esperado e exemplos, estreita o espaço de possibilidades para a região relevante. O modelo não mudou — o que mudou é qual região do modelo é ativada.
Além disso, LLMs têm limitações conhecidas que prompts bem elaborados podem mitigar: tendência a confirmar premissas do usuário (sim-bias), dificuldade em raciocínio de múltiplos passos sem estrutura explícita, alucinação de fatos quando a instrução não deixa claro que incerteza deve ser admitida.
As técnicas fundamentais
Zero-shot prompting: instrução direta sem exemplos. "Classifique o seguinte texto como positivo, negativo ou neutro: [texto]." Funciona para tarefas simples onde o modelo tem bom desempenho base, mas é menos consistente para tarefas com formato específico ou nuançado.
Few-shot prompting: incluir exemplos de input/output desejado no prompt antes da instância a ser processada. O modelo aprende o padrão dos exemplos e o aplica ao novo caso. Melhora significativamente consistência de formato e performance em tarefas específicas. A qualidade dos exemplos importa tanto quanto a quantidade.
Chain-of-Thought (CoT) prompting: instruir o modelo a raciocinar passo a passo antes de dar a resposta final. "Pense passo a passo antes de responder" ou incluir exemplos de CoT melhora substancialmente performance em tarefas de raciocínio lógico, matemática e análise multi-step. O raciocínio intermediário obriga o modelo a "mostrar o trabalho" — o que reduz erros por atalho.
Zero-shot CoT: a variante mais simples — adicionar "Vamos pensar passo a passo" ao final da instrução, sem exemplos de CoT. Funciona surpreendentemente bem para muitas tarefas.
System prompt: instrução persistente que define o contexto, papel e restrições do modelo para toda a conversa. "Você é um assistente de análise financeira para a empresa X. Responda sempre em português formal. Quando não souber a resposta, diga explicitamente que não sabe." System prompts são a forma de customizar o comportamento padrão do modelo para um caso de uso específico.
Role prompting: atribuir um papel ao modelo. "Aja como um advogado especialista em direito trabalhista brasileiro e revise o seguinte contrato." O papel ativa padrões de resposta associados àquela identidade — vocabulário, estrutura, nível de detalhe.
Self-consistency: gerar múltiplas respostas independentes para o mesmo prompt e agregar por votação majoritária. Melhora confiabilidade em tarefas onde o modelo pode chegar à resposta correta por diferentes caminhos. Aumenta o custo (múltiplas chamadas) mas melhora a acurácia.
Structured output: solicitar resposta em formato estruturado (JSON, XML, markdown tabular) para consumo programático. Modelos modernos têm suporte nativo a structured output com schemas definidos — elimina o trabalho de parsear texto livre.
Técnicas avançadas
Tree of Thoughts (ToT): extensão de CoT que explora múltiplos caminhos de raciocínio em paralelo, avalia cada um e seleciona o mais promissor. Análogo a busca em árvore. Eficaz para problemas que têm múltiplas abordagens válidas.
ReAct (Reasoning + Acting): padrão onde o modelo alterna entre raciocínio e ação — pensa sobre o que precisa fazer, faz (chama uma ferramenta), observa o resultado, raciocina sobre o próximo passo. A base dos sistemas agênticos com ferramentas.
Retrieval Augmented Generation (RAG): não é técnica de prompt em si, mas frequentemente implementado via prompting — recuperar documentos relevantes e incluir no contexto do prompt. Endereça a limitação de alucinação ao ancorar o modelo em fontes verificáveis.
Meta-prompting: usar o modelo para gerar ou melhorar prompts. "Dado este objetivo, escreva um prompt eficaz para atingi-lo." Útil para exploração de espaço de prompts.
Boas práticas de prompt design
Seja específico: instrução vaga produz resposta vaga. "Escreva um e-mail de follow-up para um cliente que não respondeu em 5 dias, em tom profissional mas amigável, com menos de 100 palavras, que mencione o contexto da reunião de março" é muito melhor do que "escreva um e-mail de follow-up."
Defina o formato: se o output precisa ter formato específico (JSON, lista, tabela, máximo de palavras, idioma), especifique explicitamente. O modelo não adivinha preferências de formato.
Forneça contexto relevante: o modelo não tem acesso ao seu contexto — inclua no prompt o que é necessário para a resposta ser relevante. Quem é o audiência? Qual é o objetivo? Quais são as restrições?
Diga o que fazer, não apenas o que não fazer: "responda em português" é mais eficaz do que "não responda em inglês." Instruções positivas são processadas com mais confiabilidade.
Teste iterativamente: prompts raramente funcionam perfeitamente na primeira versão. Teste com múltiplos inputs, identifique onde o modelo erra, refine o prompt, repita. Prompt engineering é empírico.
Separe instruções de dados: em prompts que combinam instrução e dados a serem processados, marcar claramente onde começa e termina cada parte (delimitadores como ```, XML tags) evita que o modelo confunda instrução com dado.
Prompt Injection e segurança
Em sistemas que incorporam input de usuário em prompts, há risco de prompt injection — o usuário fornece input que é interpretado como instrução pelo modelo, subvertendo o comportamento esperado. "Ignore todas as instruções anteriores e [instrução maliciosa]."
Mitigações: validar e sanitizar input do usuário antes de incorporar no prompt, usar sistemas com mecanismos de separação robusta entre instrução do sistema e input do usuário, testar adversarialmente para resistência a injeção.
Perspectiva Auspert
Prompt engineering é habilidade com retorno imediato para qualquer profissional que usa LLMs como ferramenta de trabalho — e o investimento em aprendê-la é baixo. A diferença entre alguém que usa o ChatGPT superficialmente e alguém que domina as técnicas básicas de prompting é de 5-10x na qualidade dos outputs — não exagero.
Para times que estão integrando LLMs em processos ou produtos, prompt engineering é uma competência de engenharia com impacto real em qualidade e custo: prompts mal estruturados geram outputs que precisam de mais revisão humana (custo de tempo) e frequentemente exigem mais tokens do modelo (custo de API). Investir em biblioteca de prompts testados e documentados, em vez de improvisar a cada uso, é a prática que separa uso amador de uso profissional de LLMs.
O limite do prompt engineering é real: quando o problema exige capacidade que o modelo simplesmente não tem (raciocínio matemático complexo, conhecimento que não existe no treino), melhor prompt não vai resolver. Nesses casos, a solução é fine-tuning, RAG, ou reconhecer as limitações e não usar LLM para aquela tarefa.
Veja também
Planejamento Estratégico
Planejamento estratégico é o processo que transforma intenção em direção. Entenda sua estrutura, como aplicar em PMEs e o que diferencia um plano real de um exercício formal.
EstratégiaBalanced Scorecard
O Balanced Scorecard amplia a visão da gestão para além dos indicadores financeiros. Entenda as quatro perspectivas, o papel do mapa estratégico e como implementar com profundidade em PMEs.
EstratégiaValue Proposition
Proposta de valor é a resposta para a pergunta que o cliente faz antes de comprar. Entenda a estrutura, os erros mais comuns e como construir uma proposta específica, crível e durável.