DynaSaur: Große Sprachagenten jenseits vordefinierter Aktionen

DynaSaur: Large Language Agents Beyond Predefined Actions

November 4, 2024
Autoren: Dang Nguyen, Viet Dac Lai, Seunghyun Yoon, Ryan A. Rossi, Handong Zhao, Ruiyi Zhang, Puneet Mathur, Nedim Lipka, Yu Wang, Trung Bui, Franck Dernoncourt, Tianyi Zhou
cs.AI

Zusammenfassung

Bestehende LLM-Agentensysteme wählen in der Regel Aktionen aus einem festen und vordefinierten Satz bei jedem Schritt aus. Obwohl dieser Ansatz in geschlossenen, eng umrissenen Umgebungen effektiv ist, argumentieren wir, dass er zwei Hauptprobleme bei der Bereitstellung von LLM-Agenten in realen Szenarien darstellt: (1) Die Auswahl aus einem festen Satz von Aktionen schränkt die Planungs- und Handlungsfähigkeiten von LLM-Agenten erheblich ein, und (2) dieser Ansatz erfordert erheblichen menschlichen Aufwand, um alle möglichen Aktionen aufzulisten und zu implementieren, was in komplexen Umgebungen mit einer Vielzahl potenzieller Aktionen unpraktisch wird. In dieser Arbeit schlagen wir ein LLM-Agentenframework vor, das die dynamische Erstellung und Zusammensetzung von Aktionen auf Online-Basis ermöglicht. In diesem Rahmen interagiert der Agent mit der Umgebung, indem er Programme in einer universellen Programmiersprache generiert und bei jedem Schritt ausführt. Darüber hinaus werden generierte Aktionen im Laufe der Zeit zur zukünftigen Wiederverwendung angesammelt. Unsere umfangreichen Experimente am GAIA-Benchmark zeigen, dass dieses Framework eine deutlich größere Flexibilität bietet und frühere Methoden übertrifft. Insbesondere ermöglicht es einem LLM-Agenten, sich in Szenarien zu erholen, in denen keine relevante Aktion im vordefinierten Satz vorhanden ist oder wenn vorhandene Aktionen aufgrund unvorhergesehener Randfälle versagen. Zum Zeitpunkt des Schreibens halten wir die Spitzenposition auf der öffentlichen GAIA-Rangliste. Unser Code ist unter folgendem Link verfügbar: https://github.com/adobe-research/dynasaur.
English
Existing LLM agent systems typically select actions from a fixed and predefined set at every step. While this approach is effective in closed, narrowly-scoped environments, we argue that it presents two major challenges when deploying LLM agents in real-world scenarios: (1) selecting from a fixed set of actions significantly restricts the planning and acting capabilities of LLM agents, and (2) this approach requires substantial human effort to enumerate and implement all possible actions, which becomes impractical in complex environments with a vast number of potential actions. In this work, we propose an LLM agent framework that enables the dynamic creation and composition of actions in an online manner. In this framework, the agent interacts with the environment by generating and executing programs written in a general-purpose programming language at each step. Furthermore, generated actions are accumulated over time for future reuse. Our extensive experiments on the GAIA benchmark demonstrate that this framework offers significantly greater flexibility and outperforms previous methods. Notably, it allows an LLM agent to recover in scenarios where no relevant action exists in the predefined set or when existing actions fail due to unforeseen edge cases. At the time of writing, we hold the top position on the GAIA public leaderboard. Our code can be found in https://github.com/adobe-research/dynasaur{https://github.com/adobe-research/dynasaur}.

Summary

AI-Generated Summary

PDF132November 13, 2024