AndroidLab: Training en Systematische Benchmarking van Autonome Android Agents
AndroidLab: Training and Systematic Benchmarking of Android Autonomous Agents
October 31, 2024
Auteurs: Yifan Xu, Xiao Liu, Xueqiao Sun, Siyi Cheng, Hao Yu, Hanyu Lai, Shudan Zhang, Dan Zhang, Jie Tang, Yuxiao Dong
cs.AI
Samenvatting
Autonome agenten zijn steeds belangrijker geworden voor interactie met de echte wereld. Android agenten worden met name vaak genoemd als interactiemethode. Echter, bestaande studies voor het trainen en evalueren van Android agenten missen systematisch onderzoek naar zowel open-source als gesloten-source modellen. In dit werk stellen we AndroidLab voor als een systematisch framework voor Android agenten. Het omvat een operationele omgeving met verschillende modaliteiten, actieruimte, en een reproduceerbare benchmark. Het ondersteunt zowel grote taalmodellen (LLM's) als multimodale modellen (LMM's) in dezelfde actieruimte. De AndroidLab benchmark bevat vooraf gedefinieerde Android virtuele apparaten en 138 taken over negen apps gebouwd op deze apparaten. Door gebruik te maken van de AndroidLab omgeving, ontwikkelen we een Android Instructiedataset en trainen we zes open-source LLM's en LMM's, waarbij de gemiddelde succespercentages stijgen van 4.59% naar 21.50% voor LLM's en van 1.93% naar 13.28% voor LMM's. AndroidLab is open-source en publiekelijk beschikbaar op https://github.com/THUDM/Android-Lab.
English
Autonomous agents have become increasingly important for interacting with the
real world. Android agents, in particular, have been recently a
frequently-mentioned interaction method. However, existing studies for training
and evaluating Android agents lack systematic research on both open-source and
closed-source models. In this work, we propose AndroidLab as a systematic
Android agent framework. It includes an operation environment with different
modalities, action space, and a reproducible benchmark. It supports both large
language models (LLMs) and multimodal models (LMMs) in the same action space.
AndroidLab benchmark includes predefined Android virtual devices and 138 tasks
across nine apps built on these devices. By using the AndroidLab environment,
we develop an Android Instruction dataset and train six open-source LLMs and
LMMs, lifting the average success rates from 4.59% to 21.50% for LLMs and from
1.93% to 13.28% for LMMs. AndroidLab is open-sourced and publicly available at
https://github.com/THUDM/Android-Lab.Summary
AI-Generated Summary