일간 논문
Qwen2.5-VL 기술 보고서Qwen2.5-VL Technical Report
Qwen2.5-VL 기술 보고서
Qwen2.5-VL Technical Report
Shuai Bai, Keqin Chen, Xuejing Liu, Jialin Wang, Wenbin Ge, Sibo Song, Kai Dang, Peng Wang, Shijie Wang, Jun Tang, Humen Zhong, Yuanzhi Zhu, Mingkun Yang, Zhaohai Li, Jianqiang Wan, Pengfei Wang, Wei Ding, Zheren Fu, Yiheng Xu, Jiabo Ye, Xi Zhang, Tianbao Xie, Zesen Cheng, Hang Zhang, Zhibo Yang, Haiyang Xu, Junyang Lin•Feb 19, 2025•823
RAD: 대규모 3DGS 기반 강화 학습을 통한 종단간 주행 정책 훈련RAD: Training an End-to-End Driving Policy via Large-Scale 3DGS-based
Reinforcement Learning
RAD: 대규모 3DGS 기반 강화 학습을 통한 종단간 주행 정책 훈련
RAD: Training an End-to-End Driving Policy via Large-Scale 3DGS-based
Reinforcement Learning
Hao Gao, Shaoyu Chen, Bo Jiang, Bencheng Liao, Yiang Shi, Xiaoyang Guo, Yuechuan Pu, Haoran Yin, Xiangyu Li, Xinbang Zhang, Ying Zhang, Wenyu Liu, Qian Zhang, Xinggang Wang•Feb 18, 2025•291
SongGen: 텍스트-투-송 생성을 위한 단일 단계 자기회귀 트랜스포머SongGen: A Single Stage Auto-regressive Transformer for Text-to-Song
Generation
SongGen: 텍스트-투-송 생성을 위한 단일 단계 자기회귀 트랜스포머
SongGen: A Single Stage Auto-regressive Transformer for Text-to-Song
Generation
Zihan Liu, Shuangrui Ding, Zhixiong Zhang, Xiaoyi Dong, Pan Zhang, Yuhang Zang, Yuhang Cao, Dahua Lin, Jiaqi Wang•Feb 18, 2025•251
MoM: 혼합 메모리 기반 선형 시퀀스 모델링MoM: Linear Sequence Modeling with Mixture-of-Memories
MoM: 혼합 메모리 기반 선형 시퀀스 모델링
MoM: Linear Sequence Modeling with Mixture-of-Memories
Jusen Du, Weigao Sun, Disen Lan, Jiaxi Hu, Yu Cheng•Feb 19, 2025•201
Craw4LLM: LLM 사전 학습을 위한 효율적인 웹 크롤링Craw4LLM: Efficient Web Crawling for LLM Pretraining
Craw4LLM: LLM 사전 학습을 위한 효율적인 웹 크롤링
Craw4LLM: Efficient Web Crawling for LLM Pretraining
Shi Yu, Zhiyuan Liu, Chenyan Xiong•Feb 19, 2025•191
LongPO: 단기에서 장기로의 선호 최적화를 통한 대규모 언어 모델의 장기 문맥 자기 진화LongPO: Long Context Self-Evolution of Large Language Models through
Short-to-Long Preference Optimization
LongPO: 단기에서 장기로의 선호 최적화를 통한 대규모 언어 모델의 장기 문맥 자기 진화
LongPO: Long Context Self-Evolution of Large Language Models through
Short-to-Long Preference Optimization
Guanzheng Chen, Xin Li, Michael Qizhe Shieh, Lidong Bing•Feb 19, 2025•181
작은 모델은 강력한 추론자로부터 학습하는 데 어려움을 겪는다.Small Models Struggle to Learn from Strong Reasoners
작은 모델은 강력한 추론자로부터 학습하는 데 어려움을 겪는다.
Small Models Struggle to Learn from Strong Reasoners
Yuetai Li, Xiang Yue, Zhangchen Xu, Fengqing Jiang, Luyao Niu, Bill Yuchen Lin, Bhaskar Ramasubramanian, Radha Poovendran•Feb 17, 2025•152
Autellix: 범용 프로그램으로서의 LLM 에이전트를 위한 효율적인 서빙 엔진Autellix: An Efficient Serving Engine for LLM Agents as General Programs
Autellix: 범용 프로그램으로서의 LLM 에이전트를 위한 효율적인 서빙 엔진
Autellix: An Efficient Serving Engine for LLM Agents as General Programs
Michael Luo, Xiaoxiang Shi, Colin Cai, Tianjun Zhang, Justin Wong, Yichuan Wang, Chi Wang, Yanping Huang, Zhifeng Chen, Joseph E. Gonzalez, Ion Stoica•Feb 19, 2025•141
SearchRAG: 검색 엔진이 LLM 기반 의료 질문 답변에 도움이 될 수 있을까?SearchRAG: Can Search Engines Be Helpful for LLM-based Medical Question
Answering?
SearchRAG: 검색 엔진이 LLM 기반 의료 질문 답변에 도움이 될 수 있을까?
SearchRAG: Can Search Engines Be Helpful for LLM-based Medical Question
Answering?
Yucheng Shi, Tianze Yang, Canyu Chen, Quanzheng Li, Tianming Liu, Xiang Li, Ninghao Liu•Feb 18, 2025•91
추정된 문화적 정체성: 이름이 대형 언어 모델 응답에 미치는 영향Presumed Cultural Identity: How Names Shape LLM Responses
추정된 문화적 정체성: 이름이 대형 언어 모델 응답에 미치는 영향
Presumed Cultural Identity: How Names Shape LLM Responses
Siddhesh Pawar, Arnav Arora, Lucie-Aimée Kaffee, Isabelle Augenstein•Feb 17, 2025•81
왜 안전장치가 있는 배가 좌초하는가? 정렬된 대형 언어 모델의 안전 메커니즘은 템플릿 영역에 고정되는 경향이 있다Why Safeguarded Ships Run Aground? Aligned Large Language Models' Safety
Mechanisms Tend to Be Anchored in The Template Region
왜 안전장치가 있는 배가 좌초하는가? 정렬된 대형 언어 모델의 안전 메커니즘은 템플릿 영역에 고정되는 경향이 있다
Why Safeguarded Ships Run Aground? Aligned Large Language Models' Safety
Mechanisms Tend to Be Anchored in The Template Region
Chak Tou Leong, Qingyu Yin, Jian Wang, Wenjie Li•Feb 19, 2025•81
사고 선호 최적화Thinking Preference Optimization
사고 선호 최적화
Thinking Preference Optimization
Wang Yang, Hongye Jin, Jingfeng Yang, Vipin Chaudhary, Xiaotian Han•Feb 17, 2025•82
AdaptiveStep: 모델 신뢰도를 통해 추론 단계를 자동으로 분할하기AdaptiveStep: Automatically Dividing Reasoning Step through Model
Confidence
AdaptiveStep: 모델 신뢰도를 통해 추론 단계를 자동으로 분할하기
AdaptiveStep: Automatically Dividing Reasoning Step through Model
Confidence
Yuliang Liu, Junjie Lu, Zhaoling Chen, Chaofeng Qu, Jason Klein Liu, Chonghan Liu, Zefan Cai, Yunhui Xia, Li Zhao, Jiang Bian, Chuheng Zhang, Wei Shen, Zhouhan Lin•Feb 19, 2025•61
MMTEB: 대규모 다국어 텍스트 임베딩 벤치마크MMTEB: Massive Multilingual Text Embedding Benchmark
MMTEB: 대규모 다국어 텍스트 임베딩 벤치마크
MMTEB: Massive Multilingual Text Embedding Benchmark
Kenneth Enevoldsen, Isaac Chung, Imene Kerboua, Márton Kardos, Ashwin Mathur, David Stap, Jay Gala, Wissam Siblini, Dominik Krzemiński, Genta Indra Winata, Saba Sturua, Saiteja Utpala, Mathieu Ciancone, Marion Schaeffer, Gabriel Sequeira, Diganta Misra, Shreeya Dhakal, Jonathan Rystrøm, Roman Solomatin, Ömer Çağatan, Akash Kundu, Martin Bernstorff, Shitao Xiao, Akshita Sukhlecha, Bhavish Pahwa, Rafał Poświata, Kranthi Kiran GV, Shawon Ashraf, Daniel Auras, Björn Plüster, Jan Philipp Harries, Loïc Magne, Isabelle Mohr, Mariya Hendriksen, Dawei Zhu, Hippolyte Gisserot-Boukhlef, Tom Aarsen, Jan Kostkan, Konrad Wojtasik, Taemin Lee, Marek Šuppa, Crystina Zhang, Roberta Rocca, Mohammed Hamdy, Andrianos Michail, John Yang, Manuel Faysse, Aleksei Vatolin, Nandan Thakur, Manan Dey, Dipam Vasani, Pranjal Chitale, Simone Tedeschi, Nguyen Tai, Artem Snegirev, Michael Günther, Mengzhou Xia, Weijia Shi, Xing Han Lù, Jordan Clive, Gayatri Krishnakumar, Anna Maksimova, Silvan Wehrli, Maria Tikhonova, Henil Panchal, Aleksandr Abramov, Malte Ostendorff, Zheng Liu, Simon Clematide, Lester James Miranda, Alena Fenogenova, Guangyu Song, Ruqiya Bin Safi, Wen-Ding Li, Alessia Borghini, Federico Cassano, Hongjin Su, Jimmy Lin, Howard Yen, Lasse Hansen, Sara Hooker, Chenghao Xiao, Vaibhav Adlakha, Orion Weller, Siva Reddy, Niklas Muennighoff•Feb 19, 2025•31
REFIND: 대규모 언어 모델에서의 검색 기반 사실성 환각 탐지REFIND: Retrieval-Augmented Factuality Hallucination Detection in Large
Language Models
REFIND: 대규모 언어 모델에서의 검색 기반 사실성 환각 탐지
REFIND: Retrieval-Augmented Factuality Hallucination Detection in Large
Language Models
DongGeon Lee, Hwanjo Yu•Feb 19, 2025•31
NExT-Mol: 3D 분자 생성에서 3D 확산 모델과 1D 언어 모델의 융합NExT-Mol: 3D Diffusion Meets 1D Language Modeling for 3D Molecule
Generation
NExT-Mol: 3D 분자 생성에서 3D 확산 모델과 1D 언어 모델의 융합
NExT-Mol: 3D Diffusion Meets 1D Language Modeling for 3D Molecule
Generation
Zhiyuan Liu, Yanchen Luo, Han Huang, Enzhi Zhang, Sihang Li, Junfeng Fang, Yaorui Shi, Xiang Wang, Kenji Kawaguchi, Tat-Seng Chua•Feb 18, 2025•31
MVL-SIB: 크로스모달 주제 매칭을 위한 대규모 다국어 비전-언어 벤치마크MVL-SIB: A Massively Multilingual Vision-Language Benchmark for
Cross-Modal Topical Matching
MVL-SIB: 크로스모달 주제 매칭을 위한 대규모 다국어 비전-언어 벤치마크
MVL-SIB: A Massively Multilingual Vision-Language Benchmark for
Cross-Modal Topical Matching
Fabian David Schmidt, Florian Schneider, Chris Biemann, Goran Glavaš•Feb 18, 2025•21
작게 학습하고 크게 추론: 대규모 언어 모델을 위한 메모리 효율적인 LoRA 학습Train Small, Infer Large: Memory-Efficient LoRA Training for Large
Language Models
작게 학습하고 크게 추론: 대규모 언어 모델을 위한 메모리 효율적인 LoRA 학습
Train Small, Infer Large: Memory-Efficient LoRA Training for Large
Language Models
Jun Zhang, Jue Wang, Huan Li, Lidan Shou, Ke Chen, Yang You, Guiming Xie, Xuejian Gong, Kunlong Zhou•Feb 19, 2025•21
GIMMICK -- 글로벌 포용적 다중모드 다중작업 문화적 지식 벤치마킹GIMMICK -- Globally Inclusive Multimodal Multitask Cultural Knowledge
Benchmarking
GIMMICK -- 글로벌 포용적 다중모드 다중작업 문화적 지식 벤치마킹
GIMMICK -- Globally Inclusive Multimodal Multitask Cultural Knowledge
Benchmarking
Florian Schneider, Carolin Holtermann, Chris Biemann, Anne Lauscher•Feb 19, 2025•21
ActionPiece: 생성적 추천을 위한 상황 기반 액션 시퀀스 토큰화ActionPiece: Contextually Tokenizing Action Sequences for Generative
Recommendation
ActionPiece: 생성적 추천을 위한 상황 기반 액션 시퀀스 토큰화
ActionPiece: Contextually Tokenizing Action Sequences for Generative
Recommendation
Yupeng Hou, Jianmo Ni, Zhankui He, Noveen Sachdeva, Wang-Cheng Kang, Ed H. Chi, Julian McAuley, Derek Zhiyuan Cheng•Feb 19, 2025•21
판단자를 판단하다: LLM 생성 관련성 평가 모음Judging the Judges: A Collection of LLM-Generated Relevance Judgements
판단자를 판단하다: LLM 생성 관련성 평가 모음
Judging the Judges: A Collection of LLM-Generated Relevance Judgements
Hossein A. Rahmani, Clemencia Siro, Mohammad Aliannejadi, Nick Craswell, Charles L. A. Clarke, Guglielmo Faggioli, Bhaskar Mitra, Paul Thomas, Emine Yilmaz•Feb 19, 2025•11
AIDE: 코드 공간에서의 AI 기반 탐색AIDE: AI-Driven Exploration in the Space of Code
AIDE: 코드 공간에서의 AI 기반 탐색
AIDE: AI-Driven Exploration in the Space of Code
Zhengyao Jiang, Dominik Schmidt, Dhruv Srikanth, Dixing Xu, Ian Kaplan, Deniss Jacenko, Yuxiang Wu•Feb 18, 2025•11
메모리 검색 후처리를 통한 언어 모델 기반 SPARQL 쿼리 생성의 환각 현상 감소Reducing Hallucinations in Language Model-based SPARQL Query Generation
Using Post-Generation Memory Retrieval
메모리 검색 후처리를 통한 언어 모델 기반 SPARQL 쿼리 생성의 환각 현상 감소
Reducing Hallucinations in Language Model-based SPARQL Query Generation
Using Post-Generation Memory Retrieval
Aditya Sharma, Luis Lara, Amal Zouaq, Christopher J. Pal•Feb 19, 2025•11
스플래팅 기반 확산 모델을 통한 고품질 신시점 합성High-Fidelity Novel View Synthesis via Splatting-Guided Diffusion
스플래팅 기반 확산 모델을 통한 고품질 신시점 합성
High-Fidelity Novel View Synthesis via Splatting-Guided Diffusion
Xiang Zhang, Yang Zhang, Lukas Mehl, Markus Gross, Christopher Schroers•Feb 18, 2025•11
TESS 2: 대규모 일반 목적 확산 언어 모델TESS 2: A Large-Scale Generalist Diffusion Language Model
TESS 2: 대규모 일반 목적 확산 언어 모델
TESS 2: A Large-Scale Generalist Diffusion Language Model
Jaesung Tae, Hamish Ivison, Sachin Kumar, Arman Cohan•Feb 19, 2025•12
InfiR: 추론을 위한 효과적인 소형 언어 모델 및 다중모달 소형 언어 모델 설계InfiR : Crafting Effective Small Language Models and Multimodal Small
Language Models in Reasoning
InfiR: 추론을 위한 효과적인 소형 언어 모델 및 다중모달 소형 언어 모델 설계
InfiR : Crafting Effective Small Language Models and Multimodal Small
Language Models in Reasoning
Congkai Xie, Shuo Cai, Wenjun Wang, Pengxiang Li, Zhijie Sang, Kejing Yang, Yiming Zhang, Zhen Li, Guanghao Zhu, Zeyu Liu, Yang Yu, Yuhang Liu, Su Lu, Baoyi He, Qi Zhou, Xiaotian Han, Jianbo Yuan, Shengyu Zhang, Fei Wu, Hongxia Yang•Feb 17, 2025•11
노이즈는 전이 가능한 지식을 포함할 수 있다: 실증적 관점에서 반지도 학습 기반 이종 도메인 적응 이해하기Noise May Contain Transferable Knowledge: Understanding Semi-supervised
Heterogeneous Domain Adaptation from an Empirical Perspective
노이즈는 전이 가능한 지식을 포함할 수 있다: 실증적 관점에서 반지도 학습 기반 이종 도메인 적응 이해하기
Noise May Contain Transferable Knowledge: Understanding Semi-supervised
Heterogeneous Domain Adaptation from an Empirical Perspective
Yuan Yao, Xiaopu Zhang, Yu Zhang, Jian Jin, Qiang Yang•Feb 19, 2025•01