Een Groot Terugkerend Actiemodel: xLSTM maakt Snelle Inferentie mogelijk voor Robotica Taken
A Large Recurrent Action Model: xLSTM enables Fast Inference for Robotics Tasks
October 29, 2024
Auteurs: Thomas Schmied, Thomas Adler, Vihang Patil, Maximilian Beck, Korbinian Pöppel, Johannes Brandstetter, Günter Klambauer, Razvan Pascanu, Sepp Hochreiter
cs.AI
Samenvatting
In de afgelopen jaren is er een trend geweest in het veld van Reinforcement Learning (RL) naar grote actiemodellen die offline worden getraind op grootschalige datasets via sequentiemodellering. Bestaande modellen zijn voornamelijk gebaseerd op de Transformer-architectuur, wat resulteert in krachtige agenten. Echter, vanwege trage inferentietijden zijn op Transformer gebaseerde benaderingen onpraktisch voor realtime toepassingen, zoals robotica. Onlangs zijn moderne terugkerende architecturen, zoals xLSTM en Mamba, voorgesteld die parallelisatievoordelen vertonen tijdens training vergelijkbaar met de Transformer-architectuur, terwijl ze snelle inferentie bieden. In dit werk bestuderen we de geschiktheid van deze moderne terugkerende architecturen voor grote actiemodellen. Als gevolg hiervan stellen we een Groot Terugkerend Actiemodel (LRAM) voor met een xLSTM in de kern dat wordt geleverd met inferentiecomplexiteit in lineaire tijd en natuurlijke extrapolatievermogens van sequentielengte. Experimenten op 432 taken uit 6 domeinen tonen aan dat LRAM gunstig presteert ten opzichte van Transformers wat betreft prestaties en snelheid.
English
In recent years, there has been a trend in the field of Reinforcement
Learning (RL) towards large action models trained offline on large-scale
datasets via sequence modeling. Existing models are primarily based on the
Transformer architecture, which result in powerful agents. However, due to slow
inference times, Transformer-based approaches are impractical for real-time
applications, such as robotics. Recently, modern recurrent architectures, such
as xLSTM and Mamba, have been proposed that exhibit parallelization benefits
during training similar to the Transformer architecture while offering fast
inference. In this work, we study the aptitude of these modern recurrent
architectures for large action models. Consequently, we propose a Large
Recurrent Action Model (LRAM) with an xLSTM at its core that comes with
linear-time inference complexity and natural sequence length extrapolation
abilities. Experiments on 432 tasks from 6 domains show that LRAM compares
favorably to Transformers in terms of performance and speed.Summary
AI-Generated Summary