Un Grande Modello di Azione Ricorrente: xLSTM consente un'Inferenza Veloce per Compiti di Robotica
A Large Recurrent Action Model: xLSTM enables Fast Inference for Robotics Tasks
October 29, 2024
Autori: Thomas Schmied, Thomas Adler, Vihang Patil, Maximilian Beck, Korbinian Pöppel, Johannes Brandstetter, Günter Klambauer, Razvan Pascanu, Sepp Hochreiter
cs.AI
Abstract
Negli ultimi anni, c'è stata una tendenza nel campo dell'Apprendimento per Rinforzo (RL) verso modelli d'azione di grandi dimensioni addestrati offline su dataset su larga scala tramite modellizzazione sequenziale. I modelli esistenti si basano principalmente sull'architettura del Transformer, che porta a agenti potenti. Tuttavia, a causa dei tempi di inferenza lenti, gli approcci basati su Transformer sono impraticabili per applicazioni in tempo reale, come la robotica. Recentemente, sono stati proposti moderni architetti ricorrenti, come xLSTM e Mamba, che mostrano vantaggi di parallelizzazione durante l'addestramento simili all'architettura del Transformer offrendo al contempo un'elaborazione rapida. In questo lavoro, studiamo l'adeguatezza di queste moderne architetture ricorrenti per modelli d'azione di grandi dimensioni. Di conseguenza, proponiamo un Modello d'Azione Ricorrente di Grandi Dimensioni (LRAM) con un xLSTM al suo nucleo che presenta complessità di inferenza lineare e capacità di estrapolazione naturale della lunghezza della sequenza. Gli esperimenti su 432 compiti provenienti da 6 domini mostrano che LRAM si confronta favorevolmente con i Transformer in termini di prestazioni e velocità.
English
In recent years, there has been a trend in the field of Reinforcement
Learning (RL) towards large action models trained offline on large-scale
datasets via sequence modeling. Existing models are primarily based on the
Transformer architecture, which result in powerful agents. However, due to slow
inference times, Transformer-based approaches are impractical for real-time
applications, such as robotics. Recently, modern recurrent architectures, such
as xLSTM and Mamba, have been proposed that exhibit parallelization benefits
during training similar to the Transformer architecture while offering fast
inference. In this work, we study the aptitude of these modern recurrent
architectures for large action models. Consequently, we propose a Large
Recurrent Action Model (LRAM) with an xLSTM at its core that comes with
linear-time inference complexity and natural sequence length extrapolation
abilities. Experiments on 432 tasks from 6 domains show that LRAM compares
favorably to Transformers in terms of performance and speed.Summary
AI-Generated Summary