O Google AI revelou uma nova estrutura de aprendizado de máquina chamada AGREE, visando reduzir imprecisões em grandes modelos de linguagem (LLMs). Essas imprecisões, muitas vezes chamadas de “alucinações”, ocorrem quando os LLMs produzem respostas incorretas ou sem sentido, especialmente em contextos que exigem amplo conhecimento mundial.

Enfrentando os desafios das alucinações

O fenômeno das alucinações é particularmente problemático em domínios como reportagem de notícias e educação, onde a precisão factual é fundamental. Os métodos tradicionais para mitigar esses erros incluem citações post-hoc e fundamentação baseada em sugestões. gerar respostas, mas essa abordagem é limitada pela base de conhecimento existente do LLM, que depende dos recursos de acompanhamento de instruções do modelo, muitas vezes falha em atender aos altos padrões de precisão factual exigidos em aplicações do mundo real.

A Estrutura AGREE

AGREE, que significa Adaptação para Aprimoramento de Aterramento, introduz uma estrutura baseada em aprendizagem que permite aos LLMs autofundamentar suas respostas e fornecer citações precisas. Durante a fase de treinamento, o AGREE ajusta os LLMs usando dados sintéticos de consultas não rotuladas. Esse processo permite que os modelos fundamentem suas afirmações adicionando citações às suas respostas. No momento do teste, o AGREE emprega uma estratégia de inferência iterativa, permitindo que os LLMs busquem informações adicionais com base em citações autogeradas, refinando assim suas respostas continuamente.

O processo de treinamento do AGREE envolve várias etapas. Inicialmente, os dados sintéticos são coletados a partir de consultas não rotuladas, e passagens relevantes de fontes confiáveis, como a Wikipédia, são recuperadas usando um modelo recuperador. Essas passagens são então apresentadas ao LLM base, que gera respostas iniciais sem citações. Um modelo NLI é usado para determinar o suporte para cada afirmação, adicionando citações às passagens de apoio de acordo. Frases sem passagens de apoio não recebem citações.

Eficácia e Robustez

Experimentos realizados em cinco conjuntos de dados mostraram que AGREE melhora significativamente a fundamentação e a precisão das citações em comparação com métodos de base. A estrutura demonstrou melhorias relativas de mais de 30% na qualidade do aterramento. A robustez do AGREE é evidente, pois tem um bom desempenho mesmo com dados fora do domínio, indicando sua versatilidade em diferentes tipos de questões, incluindo aquelas que requerem conhecimento fora dos dados de treinamento do modelo. A inclusão da adaptação do tempo de teste (TTA) melhora ainda mais a fundamentação e a correção das respostas, permitindo que o LLM busque ativamente passagens mais relevantes para construir melhores respostas.

Nos últimos anos, os LLMs fizeram avanços significativos em termos de capacidades. como raciocínio multi-hop, geração de planos e utilização de ferramentas e APIs. No entanto, a questão das alucinações continua a ser um desafio persistente. A abordagem da AGREE de combinar a adaptação baseada na aprendizagem com a adaptação em tempo de teste oferece uma solução promissora. Ao permitir que os LLMs fundamentam suas respostas e forneçam citações precisas, o AGREE aumenta a confiança do usuário e expande as aplicações potenciais dos LLMs em vários campos que exigem alta precisão factual.

Validação Experimental

A eficácia do AGREE foi validada por meio de experimentos abrangentes usando conjuntos de dados dentro e fora do domínio. Os dados de ajuste foram criados usando consultas de conjuntos de dados como Perguntas Naturais, StrategyQA e Fever, que fornecem textos diversos e exigem diferentes processos de raciocínio. AGREE adapta o LLM básico usando conjuntos de treinamento dentro do domínio e testa o modelo em conjuntos de dados fora do domínio para avaliar suas capacidades de generalização. Os resultados indicam que as melhorias do AGREE podem ser generalizadas de forma eficaz para diferentes tipos de perguntas e fontes de conhecimento externas.

Categories: IT Info