ActionStudio: Un Framework Leggero per i Dati e l'Addestramento di Modelli di Azione su Larga Scala
ActionStudio: A Lightweight Framework for Data and Training of Large Action Models
March 28, 2025
Autori: Jianguo Zhang, Thai Hoang, Ming Zhu, Zuxin Liu, Shiyu Wang, Tulika Awalgaonkar, Akshara Prabhakar, Haolin Chen, Weiran Yao, Zhiwei Liu, Juntao Tan, Juan Carlos Niebles, Shelby Heinecke, Huan Wang, Silvio Savarese, Caiming Xiong
cs.AI
Abstract
I modelli di azione sono essenziali per consentire agli agenti autonomi di eseguire compiti complessi. Tuttavia, l'addestramento di grandi modelli di azione rimane una sfida a causa della diversità degli ambienti degli agenti e della complessità dei dati agentici. Nonostante il crescente interesse, le infrastrutture esistenti offrono un supporto limitato per il fine-tuning scalabile e specifico per gli agenti. Presentiamo ActionStudio, un framework leggero ed estensibile per dati e addestramento progettato per grandi modelli di azione. ActionStudio unifica traiettorie eterogenee degli agenti attraverso un formato standardizzato, supporta paradigmi di addestramento diversificati tra cui LoRA, fine-tuning completo e configurazioni distribuite, e integra strumenti robusti di pre-elaborazione e verifica. Ne validiamo l'efficacia su benchmark pubblici e realistici del settore, dimostrando prestazioni solide e scalabilità pratica. Abbiamo reso disponibile il codice e i dati su https://github.com/SalesforceAIResearch/xLAM per facilitare la ricerca nella comunità.
English
Action models are essential for enabling autonomous agents to perform complex
tasks. However, training large action models remains challenging due to the
diversity of agent environments and the complexity of agentic data. Despite
growing interest, existing infrastructure provides limited support for
scalable, agent-specific fine-tuning. We present ActionStudio, a lightweight
and extensible data and training framework designed for large action models.
ActionStudio unifies heterogeneous agent trajectories through a standardized
format, supports diverse training paradigms including LoRA, full fine-tuning,
and distributed setups, and integrates robust preprocessing and verification
tools. We validate its effectiveness across both public and realistic industry
benchmarks, demonstrating strong performance and practical scalability. We
open-sourced code and data at https://github.com/SalesforceAIResearch/xLAM to
facilitate research in the community.Summary
AI-Generated Summary