ChatPaper.aiChatPaper

1. 58비트 플럭스

1.58-bit FLUX

December 24, 2024
저자: Chenglin Yang, Celong Liu, Xueqing Deng, Dongwon Kim, Xing Mei, Xiaohui Shen, Liang-Chieh Chen
cs.AI

초록

우리는 1.58비트 FLUX를 제시합니다. 이는 최첨단 텍스트에서 이미지를 생성하는 FLUX.1-dev 모델을 1.58비트 가중치(즉, {-1, 0, +1} 값)로 양자화하는 첫 성공적인 방법으로, 1024 x 1024 이미지 생성에 대해 유사한 성능을 유지합니다. 특히, 우리의 양자화 방법은 이미지 데이터에 액세스하지 않고 FLUX.1-dev 모델로부터의 자기 지도만을 의존합니다. 추가적으로, 1.58비트 연산에 최적화된 사용자 정의 커널을 개발하여 모델 저장 공간을 7.7배, 추론 메모리를 5.1배 줄이고 추론 대기 시간을 개선합니다. GenEval 및 T2I Compbench 벤치마크에서의 철저한 평가는 1.58비트 FLUX의 효과적인 성능을 입증하며, 생성 품질을 유지하면서 계산 효율성을 크게 향상시킵니다.
English
We present 1.58-bit FLUX, the first successful approach to quantizing the state-of-the-art text-to-image generation model, FLUX.1-dev, using 1.58-bit weights (i.e., values in {-1, 0, +1}) while maintaining comparable performance for generating 1024 x 1024 images. Notably, our quantization method operates without access to image data, relying solely on self-supervision from the FLUX.1-dev model. Additionally, we develop a custom kernel optimized for 1.58-bit operations, achieving a 7.7x reduction in model storage, a 5.1x reduction in inference memory, and improved inference latency. Extensive evaluations on the GenEval and T2I Compbench benchmarks demonstrate the effectiveness of 1.58-bit FLUX in maintaining generation quality while significantly enhancing computational efficiency.

Summary

AI-Generated Summary

PDF786December 30, 2024