Você piscou e já ouviu que “engenharia de prompts morreu”. O argumento ganhou força em fóruns de tecnologia, mas uma atividade recente na ESPM indica que a história é mais complexa. Modelos de linguagem estão melhores, é verdade, porém saber estruturar pedidos ainda muda o jogo.
Durante a segunda aula da Formação em Gestão de IA, realizada na semana passada, um teste em sala derrubou a tese de que comandos genéricos bastam. O professor propôs dois desafios com a mesma selfie e resultados bem diferentes.
Como surgiu a polêmica sobre engenharia de prompts
Até meados de 2023, “prompt engineering” era habilidade cobiçada. Perder tempo elaborando descrições extensas parecia sinônimo de produtividade. Só que, com a chegada de modelos mais potentes como GPT-4 e Gemini Ultra, muitos usuários passaram a relatar boas respostas mesmo com frases curtas. Daí nasceu a ideia de que o trabalho exaustivo de detalhar instruções estaria obsoleto.
Nos últimos meses, tópicos em comunidades de IA compararam a prática a aprender datilografia: útil no passado, dispensável hoje. A conversa ganhou eco a ponto de criar FOMO em quem nem sabia o que era um prompt elaborado, mas já se sentia atrasado.
Avanço dos LLMs mudou o cenário
Com contextos maiores e maior capacidade de inferir intenção, os modelos conseguem preencher lacunas que antes exigiam orientação explícita. Mesmo assim, especialistas alertam que esses sistemas continuam seguindo o que recebem em texto. Ou seja, quanto melhor o input, maior a chance de obter uma saída alinhada aos objetivos.
O teste prático da ESPM
A dinâmica conduzida em abril de 2026 pelo professor Pedro Cortella, na ESPM, foi simples. Primeiro, alunos tiraram uma selfie e pediram ao gerador de imagens uma foto de perfil para LinkedIn usando um prompt básico. Depois, submeteram a mesma imagem com um comando cheio de detalhes, citando iluminação de estúdio, profundidade de campo e até estilo de pós-produção.
Resultado: a maioria achou a segunda versão mais profissional. Uma minoria preferiu o retrato gerado a partir do texto curto, mas ali pesou gosto pessoal. Para Cortella, o exercício comprovou que “um prompt bem estruturado ainda faz muita diferença”.
Métodos ensinados em aula
Antes do exercício, o docente apresentou frameworks populares:
- AIM: Ator, Input e Missão.
- MAAP: Memória, Assets, Ação e Prompt.
- Refinamento cruzado, few-shot prompting e cadeia de pensamento.
Apesar do arsenal, ele reforçou que a inteligência artificial já deduz muito do que o usuário precisa sem textos quilométricos. Ainda assim, conhecer as estruturas ajuda a alcançar resultados fora do padrão entregue pelo modelo de forma automática.

Imagem: Reprodução
Por que a habilidade continua relevante
Mesmo que ferramentas evolucionem, entender como orientar uma IA garante controle sobre o produto final. O atrito de planejar cada detalhe do pedido força o usuário a refletir sobre objetivo, contexto e público-alvo. Esse processo, segundo Cortella, mantém profissionais “relevantes” frente ao crescimento das automações.
No mercado, essa expertise se conecta a demandas reais. Empresas que usam modelos de linguagem em atendimento, marketing ou análise de dados dependem de instruções claras para evitar respostas fora de tom ou imprecisas. Quem domina a engenharia de prompts sai na frente.
Otimizadores automáticos e agentes
Tendências como otimização de prompts por IA e arquiteturas de recuperação encabeçadas por agentes ganham espaço em 2026. Contudo, esses recursos ainda precisam de input humano de qualidade para funcionar. A discussão, portanto, não gira em torno de morte ou vida, mas de evolução da prática.
Reações dos estudantes
Depois da comparação, alguns alunos admitiram surpresa: acreditavam que o modelo trataria qualquer instrução de forma parecida. A experiência reforçou a importância de testar níveis diferentes de detalhamento antes de assumir que “menos é mais”.
Para o Olhar Tec Digital, participantes relataram que vão aplicar frameworks como AIM e MAAP em projetos de estágio e portfólios. “Percebi que o LinkedIn é só o começo; posso usar o mesmo raciocínio para melhorar apresentações e relatórios”, comentou uma aluna de Marketing.
Conclusão prática: pense antes de pedir
O experimento da ESPM mostra que a frase-chave “engenharia de prompts” segue útil. Modelos esclareceram bastante o caminho, mas ainda não leem mentes. Tirar minutos extras para estruturar intenção, contexto e formato vale o investimento.
Nesta virada de 2026, a verdadeira mudança parece estar na forma de encarar o processo: menos hype, mais método. Quem domina a arte de conversar com máquinas – seja com uma linha ou um parágrafo – continua com vantagem competitiva no universo da inteligência artificial.