ChatPaper.aiChatPaper

Sizigia dei Pensieri: Migliorare il Ragionamento a Catena nei Modelli Linguistici con la Risoluzione Libera Minima

Syzygy of Thoughts: Improving LLM CoT with the Minimal Free Resolution

April 13, 2025
Autori: Chenghao Li, Chaoning Zhang, Yi Lu, Jiaquan Zhang, Qigan Sun, Xudong Wang, Jiwei Wei, Guoqing Wang, Yang Yang, Heng Tao Shen
cs.AI

Abstract

Il prompting a Catena di Pensiero (Chain-of-Thought, CoT) migliora il ragionamento dei grandi modelli linguistici (Large Language Models, LLMs) scomponendo i problemi in passaggi sequenziali, imitando la logica umana e riducendo gli errori. Tuttavia, compiti complessi con ampi spazi di soluzione e vincoli vaghi spesso superano la capacità di una singola catena di ragionamento. Ispirati dalla Risoluzione Libera Minima (Minimal Free Resolution, MFR) in algebra commutativa e geometria algebrica, proponiamo la Sizigia di Pensieri (Syzygy of Thoughts, SoT), un nuovo framework che estende il CoT introducendo percorsi di ragionamento ausiliari e interconnessi. SoT cattura dipendenze logiche più profonde, consentendo una risoluzione dei problemi più robusta e strutturata. La MFR scompone un modulo in una sequenza di moduli liberi con rango minimo, fornendo un approccio analitico strutturato a sistemi complessi. Questo metodo introduce i concetti di "Modulo", "Numeri di Betti", "Libertà", "Mappatura", "Esattezza" e "Minimalità", permettendo la scomposizione sistematica del problema complesso originale in sottoproblemi minimi logicamente completi, preservando le caratteristiche chiave del problema e riducendo la lunghezza del ragionamento. Abbiamo testato SoT su diversi dataset (ad esempio, GSM8K, MATH) e modelli (ad esempio, GPT-4o-mini, Qwen2.5), ottenendo un'accuratezza inferenziale che eguaglia o supera gli standard CoT mainstream. Inoltre, allineando il processo di campionamento con i vincoli algebrici, il nostro approccio migliora la scalabilità del tempo di inferenza nei LLM, garantendo sia un ragionamento trasparente che alte prestazioni. Il nostro codice sarà pubblicamente disponibile all'indirizzo https://github.com/dlMARiA/Syzygy-of-thoughts.
English
Chain-of-Thought (CoT) prompting enhances the reasoning of large language models (LLMs) by decomposing problems into sequential steps, mimicking human logic and reducing errors. However, complex tasks with vast solution spaces and vague constraints often exceed the capacity of a single reasoning chain. Inspired by Minimal Free Resolution (MFR) in commutative algebra and algebraic geometry, we propose Syzygy of Thoughts (SoT)-a novel framework that extends CoT by introducing auxiliary, interrelated reasoning paths. SoT captures deeper logical dependencies, enabling more robust and structured problem-solving. MFR decomposes a module into a sequence of free modules with minimal rank, providing a structured analytical approach to complex systems. This method introduces the concepts of "Module", "Betti numbers","Freeness", "Mapping", "Exactness" and "Minimality", enabling the systematic decomposition of the original complex problem into logically complete minimal subproblems while preserving key problem features and reducing reasoning length. We tested SoT across diverse datasets (e.g., GSM8K, MATH) and models (e.g., GPT-4o-mini, Qwen2.5), achieving inference accuracy that matches or surpasses mainstream CoTs standards. Additionally, by aligning the sampling process with algebraic constraints, our approach enhances the scalability of inference time in LLMs, ensuring both transparent reasoning and high performance. Our code will be publicly available at https://github.com/dlMARiA/Syzygy-of-thoughts.

Summary

AI-Generated Summary

PDF72April 17, 2025