DynaSaur: Große Sprachagenten jenseits vordefinierter Aktionen
DynaSaur: Large Language Agents Beyond Predefined Actions
November 4, 2024
Autoren: Dang Nguyen, Viet Dac Lai, Seunghyun Yoon, Ryan A. Rossi, Handong Zhao, Ruiyi Zhang, Puneet Mathur, Nedim Lipka, Yu Wang, Trung Bui, Franck Dernoncourt, Tianyi Zhou
cs.AI
Zusammenfassung
Bestehende LLM-Agentensysteme wählen in der Regel Aktionen aus einem festen und vordefinierten Satz bei jedem Schritt aus. Obwohl dieser Ansatz in geschlossenen, eng umrissenen Umgebungen effektiv ist, argumentieren wir, dass er zwei Hauptprobleme bei der Bereitstellung von LLM-Agenten in realen Szenarien darstellt: (1) Die Auswahl aus einem festen Satz von Aktionen schränkt die Planungs- und Handlungsfähigkeiten von LLM-Agenten erheblich ein, und (2) dieser Ansatz erfordert erheblichen menschlichen Aufwand, um alle möglichen Aktionen aufzulisten und zu implementieren, was in komplexen Umgebungen mit einer Vielzahl potenzieller Aktionen unpraktisch wird. In dieser Arbeit schlagen wir ein LLM-Agentenframework vor, das die dynamische Erstellung und Zusammensetzung von Aktionen auf Online-Basis ermöglicht. In diesem Rahmen interagiert der Agent mit der Umgebung, indem er Programme in einer universellen Programmiersprache generiert und bei jedem Schritt ausführt. Darüber hinaus werden generierte Aktionen im Laufe der Zeit zur zukünftigen Wiederverwendung angesammelt. Unsere umfangreichen Experimente am GAIA-Benchmark zeigen, dass dieses Framework eine deutlich größere Flexibilität bietet und frühere Methoden übertrifft. Insbesondere ermöglicht es einem LLM-Agenten, sich in Szenarien zu erholen, in denen keine relevante Aktion im vordefinierten Satz vorhanden ist oder wenn vorhandene Aktionen aufgrund unvorhergesehener Randfälle versagen. Zum Zeitpunkt des Schreibens halten wir die Spitzenposition auf der öffentlichen GAIA-Rangliste. Unser Code ist unter folgendem Link verfügbar: https://github.com/adobe-research/dynasaur.
English
Existing LLM agent systems typically select actions from a fixed and
predefined set at every step. While this approach is effective in closed,
narrowly-scoped environments, we argue that it presents two major challenges
when deploying LLM agents in real-world scenarios: (1) selecting from a fixed
set of actions significantly restricts the planning and acting capabilities of
LLM agents, and (2) this approach requires substantial human effort to
enumerate and implement all possible actions, which becomes impractical in
complex environments with a vast number of potential actions. In this work, we
propose an LLM agent framework that enables the dynamic creation and
composition of actions in an online manner. In this framework, the agent
interacts with the environment by generating and executing programs written in
a general-purpose programming language at each step. Furthermore, generated
actions are accumulated over time for future reuse. Our extensive experiments
on the GAIA benchmark demonstrate that this framework offers significantly
greater flexibility and outperforms previous methods. Notably, it allows an LLM
agent to recover in scenarios where no relevant action exists in the predefined
set or when existing actions fail due to unforeseen edge cases. At the time of
writing, we hold the top position on the GAIA public leaderboard. Our code can
be found in
https://github.com/adobe-research/dynasaur{https://github.com/adobe-research/dynasaur}.Summary
AI-Generated Summary