A optimização e Eficiência na IA

Prompts Eficazes: a conversação com a IA

Neste episódio (episódio 6), vamos abordar um tema que me parece ser cada vez mais útil e importante — diria mesmo, necessário. Atualmente, já não basta fazer uma pergunta num browser sem pensar, o chamado “ir ao Dr. Google”. Na realidade, com a utilização de chatbots generativos, uma pesquisa pode ser muito mais do que isso.

Quando usamos o ChatGPT, o Gemini, o Claude ou o Copilot, formular um prompt (ou seja, colocar uma questão de forma imediata e estruturada) vai muito além de uma simples pesquisa. Torna-se essencial estabelecer uma “comunicação” eficiente e eficaz com a Inteligência Artificial (IA), pois isso determinará a qualidade e a utilidade das respostas que o modelo de IA irá gerar.

Para melhor compreender aquilo de que estou a falar, considero importante ler — ou reler — o meu artigo: “Fazer Prompt: A Arte de Comunicar com IA.”(https://formacaoajuda.com/2024/12/23/fazer-prompt-a-arte-de-comunicar-com-ia/), é uma boa altura para ler e entender mais sobre estas competências.

Engenharia de Prompt

A Engenharia de Prompt é cada vez mais a “arte” de “comunicar” com a Inteligência Artificial e a forma a obter respostas mais claras, precisas e úteis. Porém, mesmo o melhor prompt não garante respostas corretas, existe sempre a possibilidade de errar e “alucinar”. Estudos mostram que LLMs podem falhar em cenários críticos, levando a alucinações (informações inventadas) e decisões inseguras. Por isso, deve estar sempre presente que resultados de IA devem ser sempre, reforço o sempre, verificados por especialistas antes de serem usados em decisões de importantes, como por exemplo na área da saúde. Algumas plataformas recomendam medidas de segurança suplementares – como “checar” respostas para alucinações e ter políticas de uso responsável – exatamente para mitigar esses riscos.

Ser humano consultar biblioteca de Prompt
Imagem gerada por IA

Convido-o a ouvir este episódio na plataforma:

YouTube:

Apenas audio:

Alguns dos Sites consultados:

  • Prompt Engineering Guide (versão PT) (Português, online, gratuito): Tradução em português do guia colaborativo da DAIR.AI. Apresenta fundamentos e estratégias de prompting para LLMs, descrevendo a engenharia de prompts como desenvolver e otimizar prompts para usar eficientemente modelos de linguagem. (https://www.promptingguide.ai/pt)
  • OpenAI – Best Practices for Prompt Engineering (Inglês, online, gratuito): melhores práticas oficiais no site da OpenAI sobre como formular prompts. Existem recomendações como colocar instruções de forma clara no inicio de um Prompt, separar contexto e perguntas, e especificar o formato e tom de saída desejado. Exemplo: sugere usar delimitadores para separar seções e ser “específico sobre o formato/estilo da resposta” para evitar ambiguidades (https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-the-openai-api)

Alguns Cursos e Tutoriais (Inglês e em Português)

  • Coursera – “Generative AI: Prompt Engineering Basics” (IBM) (Inglês, gratuito auditável): Curso prático de IBM sobre fundamentos do prompting. Cobre técnicas como zero-shot, few-shot, Chain-of-thought (CoT) prompting ou cadeias de pensamento, com demos no ChatGPT e IBM WatsonX. Segundo o currículo, ensina “técnicas, abordagens e melhores práticas para escrever prompts eficazes” (https://www.coursera.org/learn/generative-ai-prompt-engineering-for-everyone)
  • DeepLearning.AI – “ChatGPT Prompt Engineering for Developers” (Inglês, gratuito): Curso curto (1h30) ministrado por Andrew Ng e Isa Fulford (OpenAI). Ensina como usar a API do ChatGPT para construir aplicações (resumir, inferir, traduzir, escrever e-mails, criar chatbots) e apresenta dois princípios-chave de prompts. Explica conceitos de LLMs e “boas práticas” de engenharia de prompts com exemplos em notebook interativo (https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers/)
  • Pinecone – Prompt Engineering and LLMs with LangChain (Inglês, blog gratuito): Artigo técnico ensina a usar prompts com LangChain. Afirma que “na nova era dos LLMs, os prompts são reis: maus prompts produzem saídas de maus prompts, e bons prompts são extraordinariamente poderosos” (https://www.pinecone.io/learn/series/langchain/langchain-prompt-templates/)

Conclusão:

A eficiência na interação e comunicação com a Inteligência Artificial é diretamente proporcional à qualidade dos prompts que são solicitados, a formulação precisa de prompts é um factor determinante para a obtenção de resultados optimizados dos modelos de IA (LLM). Por exemplo, em ambiente de laboral, onde a precisão e a rapidez na resposta é imperativo para a tomada de decisão, assim como na automação de processos; já no contexto académico, deve ser um facilitador processos ligados à investigação, à elucidação de conceitos complexos e na geração de conteúdos; mas também para fins lúdicos, explorando a capacidade criativa da IA para necessidades de entretenimento e de lazer, ou simplesmente na satisfação da curiosidade, uma certeza a proficiência na comunicação é um diferencial estratégico, uma literacia da comunicação com a IA.

Por último: O cenário da criação e manutenção de uma biblioteca de prompts emerge não como um recurso secundário, mas como um instrumento essencial. Pense como um repositório de instruções previamente validadas e refinadas, optimizadas e que garantem que cada interação com a IA seja consistente, produtiva e alinhada aos objetivos do utilizador.

Se gostou deste artigo e o achou interessante dê o seu “Gosto” e partilhe-o com os seus amigos. Este blog serve para isso mesmo: elucidar, ensinar e relembrar algum assunto a quem gosta de Informática e de tecnologia.

Em caso de alguma dúvida ou questão, envie um e-mail para formacaoajuda@gmail.com caso necessite de um qualquer esclarecimento ou ajuda.

Subscreva o nosso blog e receba automaticamente os novos artigos,

Obrigado

Deixe uma Resposta

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.