ChatPaper.aiChatPaper

RecTable: Schnelle Modellierung tabellarischer Daten mit Rectified Flow

RecTable: Fast Modeling Tabular Data with Rectified Flow

March 26, 2025
Autoren: Masane Fuchi, Tomohiro Takagi
cs.AI

Zusammenfassung

Score-basierte oder Diffusionsmodelle erzeugen hochwertige tabellarische Daten und übertreffen dabei GAN-basierte und VAE-basierte Modelle. Allerdings benötigen diese Methoden eine erhebliche Trainingszeit. In diesem Artikel stellen wir RecTable vor, das das Modellierungskonzept des rectified flow nutzt, das beispielsweise bei der Text-zu-Bild- und Text-zu-Video-Generierung Anwendung findet. RecTable zeichnet sich durch eine einfache Architektur aus, die aus wenigen gestapelten Gated-Linear-Unit-Blöcken besteht. Darüber hinaus sind auch unsere Trainingsstrategien einfach und beinhalten eine gemischte Rauschverteilung sowie eine Logit-Normal-Zeitschrittverteilung. Unsere Experimente zeigen, dass RecTable eine wettbewerbsfähige Leistung im Vergleich zu mehreren state-of-the-art Diffusions- und Score-basierten Modellen erzielt, während die erforderliche Trainingszeit reduziert wird. Unser Code ist unter https://github.com/fmp453/rectable verfügbar.
English
Score-based or diffusion models generate high-quality tabular data, surpassing GAN-based and VAE-based models. However, these methods require substantial training time. In this paper, we introduce RecTable, which uses the rectified flow modeling, applied in such as text-to-image generation and text-to-video generation. RecTable features a simple architecture consisting of a few stacked gated linear unit blocks. Additionally, our training strategies are also simple, incorporating a mixed-type noise distribution and a logit-normal timestep distribution. Our experiments demonstrate that RecTable achieves competitive performance compared to the several state-of-the-art diffusion and score-based models while reducing the required training time. Our code is available at https://github.com/fmp453/rectable.

Summary

AI-Generated Summary

PDF22March 27, 2025