SNEL: Efficiënte Actie Tokenisatie voor Visie-Taal-Actie Modellen

FAST: Efficient Action Tokenization for Vision-Language-Action Models

January 16, 2025
Auteurs: Karl Pertsch, Kyle Stachowicz, Brian Ichter, Danny Driess, Suraj Nair, Quan Vuong, Oier Mees, Chelsea Finn, Sergey Levine
cs.AI

Samenvatting

Autoregressieve sequentiemodellen, zoals op Transformer gebaseerde visie-taalactie (VLA) beleidslijnen, kunnen buitengewoon effectief zijn voor het vastleggen van complexe en generaliseerbare robotgedragingen. Echter, dergelijke modellen vereisen dat we een tokenisatie van onze continue actiesignalen kiezen, wat bepaalt hoe de discrete symbolen die voorspeld worden door het model worden gekoppeld aan continue robotacties. We constateren dat huidige benaderingen voor robotactie-tokenisatie, gebaseerd op eenvoudige per-dimensie, per-tijdstap binnenschema's, doorgaans slecht presteren bij het aanleren van behendige vaardigheden van hoogfrequente robotgegevens. Om deze uitdaging aan te pakken, stellen we een nieuw op compressie gebaseerd tokenisatieschema voor voor robotacties, gebaseerd op de discrete cosinustransformatie. Onze tokeniseringsbenadering, Frequency-space Action Sequence Tokenization (FAST), stelt ons in staat om autoregressieve VLA's te trainen voor zeer behendige en hoogfrequente taken waar standaard discretisatiemethoden volledig tekortschieten. Gebaseerd op FAST, brengen we FAST+ uit, een universele robotactietokenizer, getraind op 1M echte robotactietrajecten. Het kan worden gebruikt als een black-box tokenizer voor een breed scala aan robotactiesequenties, met diverse actieruimtes en controlefrequenties. Ten slotte tonen we aan dat, wanneer gecombineerd met de pi0 VLA, onze methode kan worden opgeschaald naar training op 10k uur aan robotgegevens en de prestaties van diffusie VLA's kan evenaren, terwijl de trainingsduur tot 5x wordt verkort.
English
Autoregressive sequence models, such as Transformer-based vision-language action (VLA) policies, can be tremendously effective for capturing complex and generalizable robotic behaviors. However, such models require us to choose a tokenization of our continuous action signals, which determines how the discrete symbols predicted by the model map to continuous robot actions. We find that current approaches for robot action tokenization, based on simple per-dimension, per-timestep binning schemes, typically perform poorly when learning dexterous skills from high-frequency robot data. To address this challenge, we propose a new compression-based tokenization scheme for robot actions, based on the discrete cosine transform. Our tokenization approach, Frequency-space Action Sequence Tokenization (FAST), enables us to train autoregressive VLAs for highly dexterous and high-frequency tasks where standard discretization methods fail completely. Based on FAST, we release FAST+, a universal robot action tokenizer, trained on 1M real robot action trajectories. It can be used as a black-box tokenizer for a wide range of robot action sequences, with diverse action spaces and control frequencies. Finally, we show that, when combined with the pi0 VLA, our method can scale to training on 10k hours of robot data and match the performance of diffusion VLAs, while reducing training time by up to 5x.

Summary

AI-Generated Summary

PDF122January 17, 2025