Desbloqueie a magia da engenharia imediata:

Apr 27 2023
Como algumas palavras simples podem transformar seus sonhos de IA em realidade
Quer criar uma IA que possa escrever como Shakespeare, diagnosticar doenças como um médico ou até mesmo gerar novas descobertas científicas? A chave está no prompt. A Prompt Engineering está rapidamente se tornando um dos empregos mais bem pagos e procurados do mundo.

Quer criar uma IA que possa escrever como Shakespeare, diagnosticar doenças como um médico ou até mesmo gerar novas descobertas científicas? A chave está no prompt.

A Prompt Engineering está rapidamente se tornando um dos empregos mais bem pagos e procurados do mundo. Mesmo que você não esteja procurando uma mudança de carreira, entender a engenharia imediata pode ajudá-lo a atingir seus objetivos com mais eficiência e eficácia.

Reddit

Prepare-se para levar seus modelos de linguagem grande (LLMs) para o próximo nível! As habilidades imediatas de engenharia são sua arma secreta para desbloquear todo o potencial dos LLMs. Com a engenharia de prompts, você irá além de apenas criar prompts e aprenderá uma ampla gama de técnicas para interfacear, construir e entender essas ferramentas poderosas. Você pode usar essas habilidades para melhorar a segurança do LLM, adicionar conhecimento de domínio e até aumentar os LLMs com ferramentas externas. Então, o que você está esperando? Comece a dominar a engenharia imediata hoje!

O que é GPT?

GPT (Transformador pré-treinado generativo) é um tipo de modelo de linguagem de inteligência artificial. É essencialmente um programa de computador que foi treinado em grandes quantidades de dados de texto da Internet, incluindo livros, artigos e sites.

Durante o processo de treinamento, o GPT aprendeu a entender a estrutura e os padrões da linguagem humana, bem como a reconhecer e categorizar diferentes tipos de palavras e frases. Cada vez que você insere um prompt, o GPT analisa todas as várias palavras que podem ser usadas para completar a frase e, com base em uma probabilidade, seleciona essas palavras para obter uma resposta significativa. Mas como isso é baseado em probabilidade, sempre há uma chance de resultados diferentes quando você faz a mesma pergunta.

Antes de começarmos, precisamos entender alguns fundamentos do Prompting.

Prompts de tiro zero e poucos tiros

O prompt zero-shot é basicamente fazer uma pergunta diretamente ao LLM ou atribuir uma tarefa. Não há dados adicionais ou treinamento fornecido.

Embora os modelos de linguagem grande demonstrem recursos notáveis ​​de disparo zero, eles ainda ficam aquém em tarefas mais complexas ao usar a configuração de disparo zero. Portanto, usamos prompts de poucos tiros. Estes são basicamente prompts nos quais damos ao modelo um pouco mais de treinamento por meio de exemplos para direcionar o modelo para um melhor desempenho.

Configurações do LLM

A criatividade da aleatoriedade e a diversidade da saída podem ser modificadas alterando certos parâmetros dos LLMs, como temperatura e top-p.

Você pode modificar diretamente a temperatura e o nível máximo de seus prompts acessando o playground openai ou perguntando diretamente ao chatGPT. Mesmo que o primeiro seja recomendado.

Temperatura

A temperatura no contexto da IA ​​refere-se a um parâmetro que pode ser ajustado para controlar a “criatividade” de um modelo de linguagem. Ele determina o quão “arriscado” é o modelo ao gerar um novo texto, com temperaturas mais altas resultando em saídas mais diversas e imprevisíveis. Temperaturas mais baixas tendem a produzir resultados mais conservadores e previsíveis.

Imagem por autor

Top-P

Top-p é uma maneira de fazer os computadores gerarem frases que soam mais como humanos. Ele ajuda o computador a escolher a melhor palavra a ser usada com base na probabilidade de ser usada na vida real. Ao usar o top-p, o computador pode ser mais criativo e evitar se repetir demais.

Como mencionamos anteriormente, cada saída de um LLM é baseada em probabilidade. Portanto, cada vez que você insere um prompt, o LLM gera uma lista de palavras que podem completar a frase. Top-p controla quanto dos principais resultados 'p' % seriam considerados na geração da saída. Embora ainda seja baseado em probabilidade, com valores de top-p mais altos, existe a possibilidade de valores mais criativos e aleatórios.

Imagem por autor

Limitações do GPT 3

Embora os LLMs e, neste caso, o GPT3 se destaquem em várias tarefas, não são perfeitos. Eles são ruins em citar fontes, matemática e raciocínio com precisão. Frequentemente, também vemos que esses LLMs são tendenciosos, embora existam várias salvaguardas em vigor.