Os seus LLMs são capazes de raciocínio estável?

Are Your LLMs Capable of Stable Reasoning?

December 17, 2024
Autores: Junnan Liu, Hongwei Liu, Linchen Xiao, Ziyi Wang, Kuikun Liu, Songyang Gao, Wenwei Zhang, Songyang Zhang, Kai Chen
cs.AI

Resumo

O rápido avanço dos Modelos de Linguagem de Grande Escala (LLMs) tem demonstrado um progresso notável em tarefas de raciocínio complexo. No entanto, uma discrepância significativa persiste entre o desempenho nos benchmarks e as aplicações do mundo real. Identificamos essa lacuna como decorrente principalmente dos protocolos e métricas de avaliação atuais, que capturam de forma inadequada todo o espectro de capacidades dos LLMs, especialmente em tarefas de raciocínio complexo onde tanto a precisão quanto a consistência são cruciais. Este trabalho apresenta duas contribuições-chave. Primeiramente, introduzimos o G-Pass@k, uma métrica de avaliação inovadora que fornece uma avaliação contínua do desempenho do modelo em várias tentativas de amostragem, quantificando tanto o potencial de desempenho máximo do modelo quanto sua estabilidade. Em segundo lugar, apresentamos o LiveMathBench, um benchmark dinâmico composto por problemas matemáticos desafiadores e contemporâneos, projetados para minimizar os riscos de vazamento de dados durante a avaliação. Através de experimentos extensivos utilizando o G-Pass@k em LLMs de ponta com o LiveMathBench, fornecemos insights abrangentes tanto sobre suas capacidades máximas quanto sobre sua consistência operacional. Nossas descobertas revelam um amplo espaço para melhorias nas capacidades de raciocínio "realistas" dos LLMs, destacando a necessidade de métodos de avaliação mais robustos. O benchmark e os resultados detalhados estão disponíveis em: https://github.com/open-compass/GPassK.
English
The rapid advancement of Large Language Models (LLMs) has demonstrated remarkable progress in complex reasoning tasks. However, a significant discrepancy persists between benchmark performances and real-world applications. We identify this gap as primarily stemming from current evaluation protocols and metrics, which inadequately capture the full spectrum of LLM capabilities, particularly in complex reasoning tasks where both accuracy and consistency are crucial. This work makes two key contributions. First, we introduce G-Pass@k, a novel evaluation metric that provides a continuous assessment of model performance across multiple sampling attempts, quantifying both the model's peak performance potential and its stability. Second, we present LiveMathBench, a dynamic benchmark comprising challenging, contemporary mathematical problems designed to minimize data leakage risks during evaluation. Through extensive experiments using G-Pass@k on state-of-the-art LLMs with LiveMathBench, we provide comprehensive insights into both their maximum capabilities and operational consistency. Our findings reveal substantial room for improvement in LLMs' "realistic" reasoning capabilities, highlighting the need for more robust evaluation methods. The benchmark and detailed results are available at: https://github.com/open-compass/GPassK.

Summary

AI-Generated Summary

PDF913December 18, 2024