ChatPaper.aiChatPaper

De RAG a Memoria: Aprendizaje Continuo No Paramétrico para Modelos de Lenguaje a Gran Escala

From RAG to Memory: Non-Parametric Continual Learning for Large Language Models

February 20, 2025
Autores: Bernal Jiménez Gutiérrez, Yiheng Shu, Weijian Qi, Sizhe Zhou, Yu Su
cs.AI

Resumen

Nuestra capacidad para adquirir, organizar y aprovechar conocimientos de manera continua es una característica clave de la inteligencia humana que los sistemas de IA deben aproximar para desbloquear todo su potencial. Dados los desafíos en el aprendizaje continuo con modelos de lenguaje grandes (LLMs, por sus siglas en inglés), la generación aumentada por recuperación (RAG, por sus siglas en inglés) se ha convertido en el método dominante para introducir nueva información. Sin embargo, su dependencia de la recuperación vectorial limita su capacidad para imitar la naturaleza dinámica e interconectada de la memoria a largo plazo humana. Los enfoques recientes de RAG aumentan los embeddings vectoriales con diversas estructuras, como grafos de conocimiento, para abordar algunas de estas limitaciones, específicamente la comprensión y la asociatividad. No obstante, su rendimiento en tareas más básicas de memoria factual disminuye considerablemente en comparación con el RAG estándar. Abordamos este deterioro no intencionado y proponemos HippoRAG 2, un marco que supera al RAG estándar de manera integral en tareas de memoria factual, de comprensión y asociativa. HippoRAG 2 se basa en el algoritmo Personalized PageRank utilizado en HippoRAG y lo mejora con una integración más profunda de pasajes y un uso más efectivo en línea de un LLM. Esta combinación acerca este sistema RAG a la eficacia de la memoria a largo plazo humana, logrando una mejora del 7% en tareas de memoria asociativa sobre el modelo de embedding más avanzado, al mismo tiempo que exhibe capacidades superiores de conocimiento factual y memoria de comprensión. Este trabajo allana el camino para el aprendizaje continuo no paramétrico en LLMs. Nuestro código y datos se publicarán en https://github.com/OSU-NLP-Group/HippoRAG.
English
Our ability to continuously acquire, organize, and leverage knowledge is a key feature of human intelligence that AI systems must approximate to unlock their full potential. Given the challenges in continual learning with large language models (LLMs), retrieval-augmented generation (RAG) has become the dominant way to introduce new information. However, its reliance on vector retrieval hinders its ability to mimic the dynamic and interconnected nature of human long-term memory. Recent RAG approaches augment vector embeddings with various structures like knowledge graphs to address some of these gaps, namely sense-making and associativity. However, their performance on more basic factual memory tasks drops considerably below standard RAG. We address this unintended deterioration and propose HippoRAG 2, a framework that outperforms standard RAG comprehensively on factual, sense-making, and associative memory tasks. HippoRAG 2 builds upon the Personalized PageRank algorithm used in HippoRAG and enhances it with deeper passage integration and more effective online use of an LLM. This combination pushes this RAG system closer to the effectiveness of human long-term memory, achieving a 7% improvement in associative memory tasks over the state-of-the-art embedding model while also exhibiting superior factual knowledge and sense-making memory capabilities. This work paves the way for non-parametric continual learning for LLMs. Our code and data will be released at https://github.com/OSU-NLP-Group/HippoRAG.

Summary

AI-Generated Summary

PDF132February 21, 2025