YINYANG-ALIGN: 모순된 목표의 벤치마킹 및 텍스트에서 이미지로의 정렬을 위한 다목적 최적화 기반 DPO 제안
YINYANG-ALIGN: Benchmarking Contradictory Objectives and Proposing Multi-Objective Optimization based DPO for Text-to-Image Alignment
February 5, 2025
저자: Amitava Das, Yaswanth Narsupalli, Gurpreet Singh, Vinija Jain, Vasu Sharma, Suranjana Trivedy, Aman Chadha, Amit Sheth
cs.AI
초록
텍스트-이미지 (T2I) 시스템에서의 정확한 정렬은 생성된 시각 자료가 사용자 의도를 정확히 포착할 뿐만 아니라 엄격한 윤리적 및 미적 기준을 준수하는 것을 보장하는 데 중요합니다. 구글 제미니 사건과 같은 사건에서는 정렬되지 않은 출력이 중요한 공개적 반발을 일으킨 것으로, 견고한 정렬 메커니즘이 필수적임을 강조합니다. 이에 반해, 대형 언어 모델 (LLMs)은 정렬에서 주목할만한 성공을 거두었습니다. 이러한 발전을 기반으로, 연구자들은 이미지 생성의 충실도와 신뢰성을 향상시키기 위해 직접 선호도 최적화 (DPO)와 같은 유사한 정렬 기술을 T2I 시스템에 적용하고자 합니다.
YinYangAlign은 T2I 시스템의 정렬 충실도를 체계적으로 측정하는 고급 벤치마킹 프레임워크를 제시합니다. 이 프레임워크는 이미지 생성에서 균형 잡힌 사용자 프롬프트 준수와 창의적 수정 또는 시각적 일관성과 함께 다양성 유지와 같은 기본적이고 본질적으로 모순된 설계 목표를 다룹니다. YinYangAlign에는 인간 프롬프트, 정렬된 (선택된) 응답, 정렬되지 않은 (거부된) AI 생성 출력, 그리고 기본적인 모순의 설명이 포함된 자세한 공리 데이터 세트가 포함되어 있습니다.
English
Precise alignment in Text-to-Image (T2I) systems is crucial to ensure that
generated visuals not only accurately encapsulate user intents but also conform
to stringent ethical and aesthetic benchmarks. Incidents like the Google Gemini
fiasco, where misaligned outputs triggered significant public backlash,
underscore the critical need for robust alignment mechanisms. In contrast,
Large Language Models (LLMs) have achieved notable success in alignment.
Building on these advancements, researchers are eager to apply similar
alignment techniques, such as Direct Preference Optimization (DPO), to T2I
systems to enhance image generation fidelity and reliability.
We present YinYangAlign, an advanced benchmarking framework that
systematically quantifies the alignment fidelity of T2I systems, addressing six
fundamental and inherently contradictory design objectives. Each pair
represents fundamental tensions in image generation, such as balancing
adherence to user prompts with creative modifications or maintaining diversity
alongside visual coherence. YinYangAlign includes detailed axiom datasets
featuring human prompts, aligned (chosen) responses, misaligned (rejected)
AI-generated outputs, and explanations of the underlying contradictions.Summary
AI-Generated Summary