ChatPaper.aiChatPaper

Могут ли языковые модели опровергать? Оценка алгоритмического рассуждения через создание контрпримеров

Can Language Models Falsify? Evaluating Algorithmic Reasoning with Counterexample Creation

February 26, 2025
Авторы: Shiven Sinha, Shashwat Goel, Ponnurangam Kumaraguru, Jonas Geiping, Matthias Bethge, Ameya Prabhu
cs.AI

Аннотация

Растет энтузиазм по поводу потенциала языковых моделей (Language Models, LMs) для ускорения научных открытий. Опровержение гипотез является ключевым элементом научного прогресса, так как позволяет постепенно уточнять утверждения. Этот процесс требует значительных усилий, рассуждений и изобретательности со стороны исследователей. Однако современные бенчмарки для LMs в основном оценивают их способность генерировать решения, а не оспаривать их. Мы выступаем за разработку бенчмарков, которые оценивают эту обратную способность — создание контрпримеров для слегка некорректных решений. Чтобы продемонстрировать этот подход, мы начинаем с области алгоритмического решения задач, где контрпримеры могут быть автоматически оценены с помощью выполнения кода. В частности, мы представляем REFUTE — динамически обновляемый бенчмарк, который включает недавние задачи и некорректные решения из соревнований по программированию, где эксперты успешно идентифицировали контрпримеры. Наш анализ показывает, что даже лучшие модели рассуждений, такие как OpenAI o3-mini (высокий уровень) с обратной связью от выполнения кода, могут создавать контрпримеры только для <9% некорректных решений в REFUTE, несмотря на то, что рейтинги указывают на их способность решать до 48% этих задач с нуля. Мы надеемся, что наша работа стимулирует прогресс в оценке и улучшении способности LMs опровергать некорректные решения — способности, которая крайне важна как для ускорения исследований, так и для самоулучшения моделей через надежное рефлексивное рассуждение.
English
There is growing excitement about the potential of Language Models (LMs) to accelerate scientific discovery. Falsifying hypotheses is key to scientific progress, as it allows claims to be iteratively refined over time. This process requires significant researcher effort, reasoning, and ingenuity. Yet current benchmarks for LMs predominantly assess their ability to generate solutions rather than challenge them. We advocate for developing benchmarks that evaluate this inverse capability - creating counterexamples for subtly incorrect solutions. To demonstrate this approach, we start with the domain of algorithmic problem solving, where counterexamples can be evaluated automatically using code execution. Specifically, we introduce REFUTE, a dynamically updating benchmark that includes recent problems and incorrect submissions from programming competitions, where human experts successfully identified counterexamples. Our analysis finds that the best reasoning agents, even OpenAI o3-mini (high) with code execution feedback, can create counterexamples for only <9% of incorrect solutions in REFUTE, even though ratings indicate its ability to solve up to 48% of these problems from scratch. We hope our work spurs progress in evaluating and enhancing LMs' ability to falsify incorrect solutions - a capability that is crucial for both accelerating research and making models self-improve through reliable reflective reasoning.

Summary

AI-Generated Summary

PDF182February 27, 2025