ChatPaper.aiChatPaper

RecTable: Modellazione Rapida di Dati Tabellari con Flusso Rettificato

RecTable: Fast Modeling Tabular Data with Rectified Flow

March 26, 2025
Autori: Masane Fuchi, Tomohiro Takagi
cs.AI

Abstract

I modelli basati su punteggi o diffusione generano dati tabulari di alta qualità, superando i modelli basati su GAN e VAE. Tuttavia, questi metodi richiedono un tempo di addestramento sostanziale. In questo articolo, introduciamo RecTable, che utilizza la modellazione del flusso rettificato, applicata in contesti come la generazione di immagini da testo e la generazione di video da testo. RecTable presenta un'architettura semplice composta da pochi blocchi di unità lineari con gate. Inoltre, le nostre strategie di addestramento sono altrettanto semplici, incorporando una distribuzione di rumore di tipo misto e una distribuzione logit-normale dei passaggi temporali. I nostri esperimenti dimostrano che RecTable raggiunge prestazioni competitive rispetto a diversi modelli all'avanguardia basati su diffusione e punteggi, riducendo al contempo il tempo di addestramento richiesto. Il nostro codice è disponibile all'indirizzo https://github.com/fmp453/rectable.
English
Score-based or diffusion models generate high-quality tabular data, surpassing GAN-based and VAE-based models. However, these methods require substantial training time. In this paper, we introduce RecTable, which uses the rectified flow modeling, applied in such as text-to-image generation and text-to-video generation. RecTable features a simple architecture consisting of a few stacked gated linear unit blocks. Additionally, our training strategies are also simple, incorporating a mixed-type noise distribution and a logit-normal timestep distribution. Our experiments demonstrate that RecTable achieves competitive performance compared to the several state-of-the-art diffusion and score-based models while reducing the required training time. Our code is available at https://github.com/fmp453/rectable.

Summary

AI-Generated Summary

PDF22March 27, 2025