LLäMmlein: Kompakte und wettbewerbsfähige deutsche Sprachmodelle von Grund auf

LLäMmlein: Compact and Competitive German-Only Language Models from Scratch

November 17, 2024
Autoren: Jan Pfister, Julia Wunderle, Andreas Hotho
cs.AI

Zusammenfassung

Wir haben zwei ausschließlich auf Deutsch ausgerichtete Decoder-Modelle, LL\"aMmlein 120M und 1B, transparent von Grund auf erstellt und zusammen mit den Trainingsdaten für die deutsche NLP-Forschungsgemeinschaft veröffentlicht. Das Modelltraining umfasste mehrere Schlüsselschritte, darunter umfangreiche Datenpräprozessierung, die Erstellung eines benutzerdefinierten deutschen Tokenizers, das eigentliche Training sowie die Evaluation der endgültigen Modelle anhand verschiedener Benchmarks. Während des Trainingsprozesses wurden mehrere Checkpoints gespeichert und mithilfe des SuperGLEBer-Benchmarks analysiert, um die Lerndynamik der Modelle zu überwachen. Im Vergleich zu State-of-the-Art-Modellen auf dem SuperGLEBer-Benchmark schnitten beide LL\"aMmlein-Modelle wettbewerbsfähig ab und erreichten konstant ähnliche oder bessere Leistungen bei vergleichbarer Parametergröße. Die Ergebnisse zeigen, dass die Qualität der Modelle wie erwartet mit der Größe skaliert, aber Leistungsverbesserungen bei einigen Aufgaben frühzeitig stagnierten und somit wertvolle Erkenntnisse zur Ressourcenallokation für zukünftige Modellentwicklung bieten.
English
We create two German-only decoder models, LL\"aMmlein 120M and 1B, transparently from scratch and publish them, along with the training data, for the German NLP research community to use. The model training involved several key steps, including extensive data preprocessing, the creation of a custom German tokenizer, the training itself, as well as the evaluation of the final models on various benchmarks. Throughout the training process, multiple checkpoints were saved and analyzed using the SuperGLEBer benchmark to monitor the models' learning dynamics. Compared to state-of-the-art models on the SuperGLEBer benchmark, both LL\"aMmlein models performed competitively, consistently matching or surpassing models with similar parameter sizes. The results show that the models' quality scales with size as expected, but performance improvements on some tasks plateaued early, offering valuable insights into resource allocation for future model development.

Summary

AI-Generated Summary

PDF83November 19, 2024