ChatPaper.aiChatPaper

Warum scheitern Multi-Agenten-LLM-Systeme?

Why Do Multi-Agent LLM Systems Fail?

March 17, 2025
Autoren: Mert Cemri, Melissa Z. Pan, Shuyi Yang, Lakshya A. Agrawal, Bhavya Chopra, Rishabh Tiwari, Kurt Keutzer, Aditya Parameswaran, Dan Klein, Kannan Ramchandran, Matei Zaharia, Joseph E. Gonzalez, Ion Stoica
cs.AI

Zusammenfassung

Trotz der wachsenden Begeisterung für Multi-Agenten-Systeme (MAS), bei denen mehrere LLM-Agenten zusammenarbeiten, um Aufgaben zu erledigen, bleiben ihre Leistungssteigerungen in gängigen Benchmarks im Vergleich zu Einzelagenten-Frameworks minimal. Diese Lücke unterstreicht die Notwendigkeit, die Herausforderungen zu analysieren, die die Effektivität von MAS behindern. In diesem Artikel präsentieren wir die erste umfassende Studie zu den Herausforderungen von MAS. Wir analysieren fünf gängige MAS-Frameworks über mehr als 150 Aufgaben hinweg unter Einbeziehung von sechs erfahrenen menschlichen Annotatoren. Wir identifizieren 14 einzigartige Fehlermodi und schlagen eine umfassende Taxonomie vor, die auf verschiedene MAS-Frameworks anwendbar ist. Diese Taxonomie entsteht iterativ aus Übereinstimmungen zwischen drei Experten-Annotatoren pro Studie und erreicht einen Cohen’s Kappa-Wert von 0,88. Diese detaillierten Fehlermodi werden in drei Kategorien organisiert: (i) Spezifikations- und Systemdesign-Fehler, (ii) Fehlausrichtung zwischen Agenten und (iii) Aufgabenüberprüfung und -beendigung. Um skalierbare Bewertungen zu unterstützen, integrieren wir MASFT mit LLM-as-a-Judge. Wir untersuchen auch, ob identifizierte Fehler leicht verhindert werden könnten, indem wir zwei Interventionen vorschlagen: verbesserte Spezifikation von Agentenrollen und optimierte Orchestrierungsstrategien. Unsere Ergebnisse zeigen, dass die identifizierten Fehler komplexere Lösungen erfordern, was einen klaren Fahrplan für zukünftige Forschung aufzeigt. Wir stellen unseren Datensatz und den LLM-Annotator als Open Source zur Verfügung.
English
Despite growing enthusiasm for Multi-Agent Systems (MAS), where multiple LLM agents collaborate to accomplish tasks, their performance gains across popular benchmarks remain minimal compared to single-agent frameworks. This gap highlights the need to analyze the challenges hindering MAS effectiveness. In this paper, we present the first comprehensive study of MAS challenges. We analyze five popular MAS frameworks across over 150 tasks, involving six expert human annotators. We identify 14 unique failure modes and propose a comprehensive taxonomy applicable to various MAS frameworks. This taxonomy emerges iteratively from agreements among three expert annotators per study, achieving a Cohen's Kappa score of 0.88. These fine-grained failure modes are organized into 3 categories, (i) specification and system design failures, (ii) inter-agent misalignment, and (iii) task verification and termination. To support scalable evaluation, we integrate MASFT with LLM-as-a-Judge. We also explore if identified failures could be easily prevented by proposing two interventions: improved specification of agent roles and enhanced orchestration strategies. Our findings reveal that identified failures require more complex solutions, highlighting a clear roadmap for future research. We open-source our dataset and LLM annotator.

Summary

AI-Generated Summary

PDF422March 21, 2025