Het ontwikkelen van dieper LLM-denken.

Evolving Deeper LLM Thinking

January 17, 2025
Auteurs: Kuang-Huei Lee, Ian Fischer, Yueh-Hua Wu, Dave Marwood, Shumeet Baluja, Dale Schuurmans, Xinyun Chen
cs.AI

Samenvatting

We onderzoeken een evolutionaire zoekstrategie voor het schalen van de rekentijd voor inferentie in Grote Taalmodellen. De voorgestelde aanpak, Mind Evolution, maakt gebruik van een taalmodel om kandidaatreacties te genereren, recombineren en verfijnen. De voorgestelde aanpak vermijdt de noodzaak om het onderliggende inferentieprobleem te formaliseren wanneer een oplossingsevaluator beschikbaar is. Door te controleren op inferentiekosten, vinden we dat Mind Evolution aanzienlijk beter presteert dan andere inferentiestrategieën zoals Best-of-N en Sequentiële Revisie bij natuurlijke taalplanningstaken. In de benchmarks TravelPlanner en Natural Plan lost Mind Evolution meer dan 98% van de probleemgevallen op met behulp van Gemini 1.5 Pro zonder een formele oplosser te gebruiken.
English
We explore an evolutionary search strategy for scaling inference time compute in Large Language Models. The proposed approach, Mind Evolution, uses a language model to generate, recombine and refine candidate responses. The proposed approach avoids the need to formalize the underlying inference problem whenever a solution evaluator is available. Controlling for inference cost, we find that Mind Evolution significantly outperforms other inference strategies such as Best-of-N and Sequential Revision in natural language planning tasks. In the TravelPlanner and Natural Plan benchmarks, Mind Evolution solves more than 98% of the problem instances using Gemini 1.5 Pro without the use of a formal solver.

Summary

AI-Generated Summary

PDF1035January 20, 2025