ChatPaper.aiChatPaper

ActionStudio: Un Framework Leggero per i Dati e l'Addestramento di Modelli di Azione su Larga Scala

ActionStudio: A Lightweight Framework for Data and Training of Large Action Models

March 28, 2025
Autori: Jianguo Zhang, Thai Hoang, Ming Zhu, Zuxin Liu, Shiyu Wang, Tulika Awalgaonkar, Akshara Prabhakar, Haolin Chen, Weiran Yao, Zhiwei Liu, Juntao Tan, Juan Carlos Niebles, Shelby Heinecke, Huan Wang, Silvio Savarese, Caiming Xiong
cs.AI

Abstract

I modelli di azione sono essenziali per consentire agli agenti autonomi di eseguire compiti complessi. Tuttavia, l'addestramento di grandi modelli di azione rimane una sfida a causa della diversità degli ambienti degli agenti e della complessità dei dati agentici. Nonostante il crescente interesse, le infrastrutture esistenti offrono un supporto limitato per il fine-tuning scalabile e specifico per gli agenti. Presentiamo ActionStudio, un framework leggero ed estensibile per dati e addestramento progettato per grandi modelli di azione. ActionStudio unifica traiettorie eterogenee degli agenti attraverso un formato standardizzato, supporta paradigmi di addestramento diversificati tra cui LoRA, fine-tuning completo e configurazioni distribuite, e integra strumenti robusti di pre-elaborazione e verifica. Ne validiamo l'efficacia su benchmark pubblici e realistici del settore, dimostrando prestazioni solide e scalabilità pratica. Abbiamo reso disponibile il codice e i dati su https://github.com/SalesforceAIResearch/xLAM per facilitare la ricerca nella comunità.
English
Action models are essential for enabling autonomous agents to perform complex tasks. However, training large action models remains challenging due to the diversity of agent environments and the complexity of agentic data. Despite growing interest, existing infrastructure provides limited support for scalable, agent-specific fine-tuning. We present ActionStudio, a lightweight and extensible data and training framework designed for large action models. ActionStudio unifies heterogeneous agent trajectories through a standardized format, supports diverse training paradigms including LoRA, full fine-tuning, and distributed setups, and integrates robust preprocessing and verification tools. We validate its effectiveness across both public and realistic industry benchmarks, demonstrating strong performance and practical scalability. We open-sourced code and data at https://github.com/SalesforceAIResearch/xLAM to facilitate research in the community.

Summary

AI-Generated Summary

PDF122April 1, 2025