GenAI — O que é Engenharia de Prompt?

Alex Souza
blog do zouza
Published in
10 min readSep 29, 2023

Com a explosão no crescimento de usuários com IAs como ChatGPT, Bing AI, Meta AI, Claude AI e Bard do Google , a Engenharia de Prompt está se tornando rapidamente mais compreendida por seu valor. Se você não está familiarizado com o termo, a Engenharia de Prompt é uma técnica crucial para a utilização eficaz de LLMs baseados em texto, como ChatGPT e Bard por exemplo.

O processo envolve a elaboração de instruções ou consultas bem projetadas, conhecidas como prompts, para extrair as respostas desejadas do modelo. Ao fornecer instruções claras e específicas, você pode orientar a produção do LLM e melhorar a qualidade e relevância do texto gerado. Simplesmente, pode ser a diferença entre uma informação acionável ou algo desinteressante.

Então, vejamos algumas maneiras pelas quais você pode desenvolver suas habilidades em engenharia de prompts.

Encontrará aqui:

  • Compreendendo o comportamento do LLM
  • Definindo objetivos claros e específicos | Contexto | Exemplos | Persona | Formato| Tom
  • Controle de Comprimento
  • Controle de Temperatura
  • Refinamento
  • Habilidades de um Engenheiro de Prompts (Conhecimento dos Modelos, Linguístico, Resolução Criativa, Análise e Interpretação, Colaboração e comunicação)

Compreendendo o comportamento do LLM

Antes de mergulhar na engenharia imediata, é importante compreender o comportamento da IA ​​com a qual você está trabalhando. ChatGPT, Meta AI, Bing AI e Bard são semelhantes, mas não são iguais. E isso vale para outros LLMs também. Dito isso, é importante observar que cada modelo tem seus pontos fortes, fracos e limitações.

Portanto, certifique-se de reservar um tempo para se familiarizar com as respostas típicas, tendências e possíveis preconceitos do LLM para tomar melhores decisões ao elaborar instruções.

Definindo Objetivos Claros

Quando se trata dos modelos atuais de IA, é importante ser claro. Lembre-se de que muitas vezes faltam reflexos contextuais. Portanto, você desejará iniciar sua solicitação definindo seus objetivos e resultados desejados. Quer se trate de redação criativa, resposta a perguntas, geração de código ou qualquer outra tarefa, ter um objetivo claro guiará seu design imediato e garantirá que o LLM gere respostas relevantes. Se você não for claro, corre o risco de gerar um texto inútil.

Use instruções específicas

Este é um grande problema. Quando se trata de trabalhar com LLMs, você deseja evitar solicitações vagas ou ambíguas. Para ser eficaz, você precisa fornecer instruções específicas para orientar a resposta do LLM. Você pode fazer isso especificando explicitamente o formato, o contexto ou as informações desejadas para obter resultados precisos e relevantes.

Dica: Comece sua pergunta com um verbo de ação, como “gerar”, “dar”, “escrever” ou “analisar”, e seja claro sobre qual é o seu objetivo final. Por exemplo, “Escreva um resumo do relatório de vendas trimestrais.”

Fornecendo Contexto

Como mencionado acima, os LLMs, pelo menos por enquanto, carecem de reflexos contextuais. Portanto, para que o modelo forneça respostas mais conscientes do contexto, você desejará preparar o LLM com informações relevantes. Isso inclui, mas não está limitado a, adicionar texto introdutório ou fornecer uma frase inicial para definir o contexto do texto gerado. Lembre-se de que você pode adicionar contexto, mas é importante garantir que o contexto fornecido não seja uma informação supérflua.

Dica: O contexto é fundamental para restringir as possibilidades. Forneça informações sobre o histórico do usuário, o que define o sucesso e o ambiente em que estão. Por exemplo, “Você é um nutricionista e tem um paciente que deseja perder peso.”

Exemplos

Incluir exemplos na sua pergunta é uma prática recomendada. Exemplos tornam mais fácil para a IA entender o que você deseja. Por exemplo, “Dê uma receita saudável para o almoço que seja rápida de preparar.”

Persona

Pense em quem você quer que a IA seja ao responder. Pode ser um especialista, um recrutador, um profissional de marketing ou até mesmo um personagem fictício. Por exemplo, “Você é um treinador de fitness que trabalha com atletas de elite.”

Formato

Visualize como você deseja que a resposta seja formatada. Pode ser uma lista, um e-mail, um resumo ou qualquer formato que você precise. Por exemplo, “Forneça as informações em formato de lista com marcadores.”

Tom

O tom da resposta é importante. Você pode pedir um tom formal, casual, entusiástico ou até pessimista. Por exemplo, “Escreva com um tom motivador e entusiasmado.”

Um exemplo…

  • Tarefa: "Analisar o cenário atual do mercado de dados e fornecer insights estratégicos para a tomada de decisões."
  • Contexto: "Sou um gestor de média empresa com experiência em diversos setores, mas sou novo na análise de dados. Estou buscando otimizar nossas operações e tomar decisões informadas baseadas em dados nos próximos um a dois anos."
  • Exemplos: "Poderia abordar tópicos como a importância da análise de dados para a eficiência operacional, como eventos tecnológicos recentes podem impactar a coleta e análise de dados e, se possível, utilize gráficos ou tabelas para ilustrar suas conclusões."
  • Pessoa: "Imagine que você é um analista de dados especializado."
  • Formato: "Por favor, apresente as informações de forma organizada. Comece com um resumo executivo, seguido por análises detalhadas divididas por seções. Conclua com recomendações práticas."
  • Tom: "A linguagem deve ser profissional, mas não excessivamente técnica, já que estou começando a explorar o campo da análise de dados."

Outras “calibragem de parâmetros”

Controle de comprimento

Às vezes, quando você trabalha com uma IA, ela pode fornecer muitas informações e pode ser esmagadora. Uma maneira de resolver isso é usar técnicas de controle de comprimento. Isso é melhor quando você precisa de respostas de um tamanho específico ou quando as informações que você procura são mais adequadas para serem resumidas. Além disso, se você usar uma conexão API com um LLM, terá controle de comprimento para limitar o uso de token. Para fazer isso, você pode definir um limite máximo de tokens ou informar a IA na mensagem de prompt para indicar quando parar de gerar texto.

Temperatura e Amostragem

LLMs baseados em texto usam amostragem para gerar respostas. O ajuste do parâmetro “temperatura” controla a aleatoriedade da saída. Valores mais altos tornam o texto mais diversificado, mas correm o risco de ser menos coerente, enquanto valores mais baixos tornam-no mais focado, mas repetitivo. Faça experiências com a temperatura para encontrar o equilíbrio certo para seu caso de uso.

Refinamento Iterativo

Você pode refinar iterativamente seus prompts com base nas respostas do LLM. Você pode fazer isso observando o comportamento do modelo e modificando os prompts para obter resultados mais precisos e desejáveis. No ChatGPT, por exemplo, você pode ver que parte de um prompt não fornece as informações que você procura. Você pode abrir um novo chat, refinar um pouco o prompt, retirar as informações que podem não estar funcionando e tentar novamente. Isso fornecerá pistas e orientações para solicitações futuras.

Experimente e aprenda

Assim como acontece com qualquer nova habilidade, quanto mais você tentar criar prompts, melhor você ficará. É por isso que uma engenharia de prompt eficaz geralmente envolve experimentação e aprendizado com o comportamento do LLM. Isso ocorre em diferentes modelos, pois você alimenta um prompt no ChatGPT provavelmente gerará um resultado diferente se for inserido no Bard e vice-versa. Portanto, não tenha medo de iterar seus prompts e observe como diferentes instruções afetam as saídas para alcançar os resultados desejados.

Você pode descobrir que um prompt pode funcionar bem por um tempo, mas à medida que os modelos se desenvolvem, a qualidade do texto gerado pode mudar, para melhor ou para pior. Portanto, esteja aberto à experimentação.

Dica: Anote seus melhores prompts!

5 habilidades essenciais para entrar na Engenharia de Prompts

Compreensão profunda de modelos de IA

Como já comentamos um pouco anteriormente… Primeiro, é importante ter um conhecimento profundo dos modelos de IA com os quais você está trabalhando. A familiaridade com a arquitetura, capacidades e limitações de modelos como GPT-3, GPT-4 ou seus sucessores é crucial para compreender o contexto da sua gama. Saber como esses modelos processam dados de entrada, geram texto e lidam com vários prompts é outro aspecto importante que não deve ser ignorado.

Todo esse conhecimento forma a base sobre a qual você pode criar prompts eficazes que geram os resultados desejados. Portanto, mantenha-se atualizado com os últimos avanços em pesquisas de IA e atualizações de modelos, pois esse campo evolui muito rapidamente.

Conhecimento Linguístico

Os prompts são essencialmente instruções fornecidas aos modelos de IA e geralmente estão na forma de linguagem natural. Para se destacar como um engenheiro de prompt, você deve ter um forte domínio da linguística, pois percorrerá os modelos e segurará suas mãos por meio da linguagem humana. Portanto, ter um forte conhecimento prático de sintaxe, gramática, semântica e pragmática pode leva-lo a resultados excelentes.

Isso ocorre porque compreender como a linguagem funciona em um nível fundamental permite redigir prompts claros, concisos e inequívocos para modelos que exigem barreiras mínimas no que você espera que eles façam.

Por fim, ter conhecimento linguístico também ajuda a criar prompts que sejam contextualmente apropriados. Você precisa saber como enquadrar perguntas, fornecer contexto e estruturar instruções de uma forma que oriente o modelo de IA para produzir respostas relevantes e coerentes.

Resolução criativa de problemas

Criar prompts eficazes nem sempre é simples; muitas vezes requer habilidades criativas de resolução de problemas. Você pode encontrar cenários em que o modelo de IA tenha dificuldade para gerar o resultado desejado ou produza conteúdo tendencioso ou inadequado. Nesses casos, precisará pensar criativamente para encontrar abordagens alternativas.

Ser capaz de adaptar e iterar os prompts para alcançar os resultados desejados é uma habilidade valiosa. Você precisará experimentar diferentes formatos de entrada, palavras-chave ou instruções de configuração de contexto para “convencer” o modelo de IA a gerar a saída desejada.

Análise e Interpretação de Dados

Os dados desempenham um papel crítico na engenharia de prompt. Sempre, mas sempre mesmo!!! Você precisará analisar os resultados gerados pelo modelo de IA para avaliar a eficácia de suas solicitações. Isto envolve análises quantitativas e qualitativas.

A análise quantitativa pode incluir a medição de métricas como coerência, relevância ou fluência dos resultados. Você deve se sentir confortável ao usar ferramentas e bibliotecas de PNL para automatizar esse processo.

A análise qualitativa, por outro lado, envolve a avaliação dos resultados quanto a potenciais preconceitos, preocupações éticas ou adequação ao contexto. Uma forte estrutura de pensamento ético e crítico é essencial para garantir o uso responsável da IA ​​na geração de conteúdo.

Colaboração e Comunicação

Finalmente, ter habilidades eficazes de comunicação e colaboração é fundamental para ter sucesso como engenheiro de prompt. Você provavelmente trabalhará em equipes multifuncionais ao lado de cientistas de dados, engenheiros, programadores computacionais, escritores e outros especialistas no domínio. Portanto, ser capaz de transmitir suas ideias, explicar a lógica por trás de suas solicitações e receber feedback de um grupo diversificado de pessoas é crucial quando se trata de sucesso.

Embora a IA continue a crescer rapidamente em todos os setores, questões de importância ética e social devem ser sempre comunicadas, o que é importante quando se trata do uso responsável da IA. Ser capaz de articular as considerações éticas em torno do conteúdo gerado por IA é vital para manter a confiança e a responsabilidade.

Conclusão

A Engenharia de Prompt é uma habilidade crucial em um mundo cada vez mais influenciado por IAs baseadas em texto, como ChatGPT e outros. Essa prática envolve a criação de instruções claras e específicas, conhecidas como prompts, para obter respostas precisas desses modelos.

Para ser eficaz na Engenharia de Prompt, é fundamental compreender o comportamento dos modelos de IA com os quais se trabalha, definir objetivos claros, fornecer instruções específicas, adicionar contexto, exemplos, persona, formato e tom às solicitações. Além disso, o controle de comprimento, a temperatura e o refinamento iterativo são técnicas avançadas que podem ser aplicadas.

Aqueles que desejam entrar na Engenharia de Prompt devem possuir conhecimento profundo sobre modelos de IA, forte compreensão linguística, habilidades criativas para resolver problemas, capacidade de analisar e interpretar dados, bem como habilidades de colaboração e comunicação.

A Engenharia de Prompt desempenha um papel fundamental no uso responsável e eficaz da IA, adaptando-se continuamente às mudanças nesse campo em constante evolução. Experimentação e aprendizado contínuo são essenciais para garantir que essa disciplina continue a fornecer informações relevantes e valiosas em um ambiente cada vez mais influenciado por IAs baseadas em texto.

Referências

Guia da OpenAI de Engenharia de Prompt

Agradeço pela leitura e espero que tenha sido útil…

Obrigado! Antes de você ir:

· 👏 Deixe suas palmas o story e me siga para mais assuntos

· 📰 Vejam mais conteúdos como este Blog do Souza

· 📰🚀 Diariamente dicas rápidas sobre dados 👉Alex Souza

· 💰 Venham conhecer a Comunidade de Análise de Dados

· 🔔 Sigam: Twitter (X) | LinkedIn | Instagram | Youtube | mais…

--

--