ChatPaper.aiChatPaper

InductionBench: LLM-модели не справляются с самым простым классом сложности.

InductionBench: LLMs Fail in the Simplest Complexity Class

February 20, 2025
Авторы: Wenyue Hua, Tyler Wong, Sun Fei, Liangming Pan, Adam Jardine, William Yang Wang
cs.AI

Аннотация

Большие языковые модели (LLM) продемонстрировали замечательные улучшения в рассуждениях, и многие существующие бенчмарки были решены моделями, такими как o1 и o3, полностью или частично. Однако большинство этих бенчмарков акцентируются на дедуктивных рассуждениях, включая математические и программные задачи, в которых правила, такие как математические аксиомы или синтаксис программирования, четко определены, на основе которых LLM могут планировать и применять эти правила для получения решения. В отличие от этого, индуктивные рассуждения, где из наблюдаемых данных делаются выводы о базовых правилах, остаются менее исследованными. Такие индуктивные процессы лежат в основе научных открытий, поскольку они позволяют исследователям извлекать общие принципы из эмпирических наблюдений. Для оценки наличия у LLM этой способности мы представляем InductionBench, новый бенчмарк, разработанный для оценки индуктивной способности рассуждения у LLM. Наши экспериментальные результаты показывают, что даже самые передовые доступные модели испытывают трудности с освоением простейших классов сложности в подрегулярной иерархии функций, подчеркивая значительные недостатки в индуктивной способности рассуждения текущих LLM. Код и данные доступны на https://github.com/Wenyueh/inductive_reasoning_benchmark.
English
Large language models (LLMs) have shown remarkable improvements in reasoning and many existing benchmarks have been addressed by models such as o1 and o3 either fully or partially. However, a majority of these benchmarks emphasize deductive reasoning, including mathematical and coding tasks in which rules such as mathematical axioms or programming syntax are clearly defined, based on which LLMs can plan and apply these rules to arrive at a solution. In contrast, inductive reasoning, where one infers the underlying rules from observed data, remains less explored. Such inductive processes lie at the heart of scientific discovery, as they enable researchers to extract general principles from empirical observations. To assess whether LLMs possess this capacity, we introduce InductionBench, a new benchmark designed to evaluate the inductive reasoning ability of LLMs. Our experimental findings reveal that even the most advanced models available struggle to master the simplest complexity classes within the subregular hierarchy of functions, highlighting a notable deficiency in current LLMs' inductive reasoning capabilities. Coda and data are available https://github.com/Wenyueh/inductive_reasoning_benchmark.

Summary

AI-Generated Summary

PDF62February 25, 2025