O Google DeepMind revelou recentemente um método inovador para solicitar respostas de IA chamado Otimização por PROmpting (OPRO). Este método utiliza grandes modelos de linguagem (LLMs) como otimizadores onde os modelos de IA funcionam tentando diferentes prompts até encontrar aquele que mais se aproxima da resolução de uma tarefa específica. Essa técnica é descrita em um artigo de pesquisa e automatiza o processo de tentativa e erro que uma pessoa normalmente faria ao digitar.
Ao contrário dos métodos tradicionais que dependem de definições matemáticas formais, o OPRO define tarefas de otimização em linguagem natural. Os pesquisadores destacaram: “Em vez de definir formalmente o problema de otimização… descrevemos o problema de otimização em linguagem natural e, em seguida, instruímos o LLM a gerar iterativamente novas soluções com base na descrição do problema e nas soluções encontradas anteriormente”. uma gama diversificada de problemas simplesmente ajustando a descrição do problema ou adicionando instruções específicas.
Como o OPRO funciona
O processo OPRO começa com um “meta-prompt”entrada, que abrange uma descrição da tarefa em linguagem natural, exemplos de problemas, espaços reservados para instruções imediatas e soluções correspondentes. À medida que a otimização se desenvolve, o LLM produz soluções candidatas com base na descrição do problema e nas soluções anteriores no meta-prompt.
Esses candidatos são então avaliados, recebem pontuações de qualidade e as soluções ideais são integradas ao meta-prompt, aprimorando o contexto para a geração subsequente de soluções. Este mecanismo iterativo persiste até que o modelo deixe de sugerir soluções superiores. Os pesquisadores enfatizaram a capacidade dos LLMs de compreender a linguagem natural, permitindo aos usuários articular suas tarefas de otimização sem especificações formais.
Para verificar a eficácia do OPRO, os pesquisadores o testaram em renomados desafios de otimização matemática, como regressão linear e viagem. problema do vendedor. Os resultados foram promissores, com os LLMs capturando com precisão as direções de otimização com base nas trajetórias de otimização anteriores fornecidas no meta-prompt.
Por que o prompt automático de IA é um avanço
Além disso, experimentos revelaram que a engenharia imediata pode influenciar significativamente o resultado de um modelo. Por exemplo, anexar a frase “vamos pensar passo a passo” a um prompt pode induzir o modelo a delinear as etapas necessárias para resolver um problema, muitas vezes levando a uma maior precisão.
No entanto, é importante observar que As respostas dos LLMs são profundamente influenciadas pelo formato do prompt, e prompts semelhantes podem produzir resultados diferentes.
A IA capaz de fazer prompts automaticamente traz benefícios ao usuário, ao mesmo tempo que traz os seguintes benefícios aos LLMs:
Eficiência aprimorada: os prompts automáticos podem ajudar a melhorar a eficiência dos sistemas de IA, reduzindo a quantidade de entradas e intervenções manuais necessárias. Por exemplo, um sistema de IA capaz de gerar prompts automaticamente para si mesmo pode reduzir a necessidade de usuários humanos fornecerem instruções explícitas. Maior precisão: as solicitações automáticas de IA também podem ajudar a melhorar a precisão dos sistemas de IA, fornecendo-lhes mais contexto e informações. Por exemplo, um sistema de IA que é capaz de gerar prompts com base em sua própria compreensão de uma tarefa tem menos probabilidade de cometer erros do que um sistema de IA que só é capaz de seguir instruções explícitas. Viés reduzido: LLMs que podem solicitar automaticamente também podem ajudar a reduzir o preconceito em sistemas de IA, fornecendo-lhes uma gama mais diversificada de entradas. Por exemplo, um sistema de IA que é capaz de gerar avisos com base na sua própria compreensão de uma tarefa tem menos probabilidade de ser tendencioso para certos tipos de dados ou exemplos.