ChatPaper.aiChatPaper

Die Geometrie der Tokens in den internen Repräsentationen großer Sprachmodelle

The Geometry of Tokens in Internal Representations of Large Language Models

January 17, 2025
Autoren: Karthik Viswanathan, Yuri Gardinazzi, Giada Panerai, Alberto Cazzaniga, Matteo Biagetti
cs.AI

Zusammenfassung

Wir untersuchen die Beziehung zwischen der Geometrie von Token-Einbettungen und ihrer Rolle bei der Vorhersage des nächsten Tokens innerhalb von Transformer-Modellen. Ein wichtiger Aspekt dieser Verbindung nutzt den Begriff des empirischen Maßes, das die Verteilung von Token-Punktwolken über Transformer-Schichten codiert und die Entwicklung von Token-Repräsentationen im mittelfeldinteragierenden Bild antreibt. Wir verwenden Metriken wie intrinsische Dimension, Nachbarschaftsüberlappung und Kosinusähnlichkeit, um diese empirischen Maße über Schichten hinweg beobachtend zu untersuchen. Um unseren Ansatz zu validieren, vergleichen wir diese Metriken mit einem Datensatz, in dem die Tokens verschoben sind, was die syntaktische und semantische Struktur stört. Unsere Ergebnisse zeigen eine Korrelation zwischen den geometrischen Eigenschaften von Token-Einbettungen und dem Kreuzentropieverlust von Vorhersagen des nächsten Tokens, was darauf hindeutet, dass Anfragen mit höheren Verlustwerten Tokens repräsentieren, die in höherdimensionalen Räumen liegen.
English
We investigate the relationship between the geometry of token embeddings and their role in the next token prediction within transformer models. An important aspect of this connection uses the notion of empirical measure, which encodes the distribution of token point clouds across transformer layers and drives the evolution of token representations in the mean-field interacting picture. We use metrics such as intrinsic dimension, neighborhood overlap, and cosine similarity to observationally probe these empirical measures across layers. To validate our approach, we compare these metrics to a dataset where the tokens are shuffled, which disrupts the syntactic and semantic structure. Our findings reveal a correlation between the geometric properties of token embeddings and the cross-entropy loss of next token predictions, implying that prompts with higher loss values have tokens represented in higher-dimensional spaces.

Summary

AI-Generated Summary

PDF92January 22, 2025