RARe: 문맥 예시를 활용한 검색 보강 검색

RARe: Retrieval Augmented Retrieval with In-Context Examples

October 26, 2024
저자: Atula Tejaswi, Yoonsang Lee, Sujay Sanghavi, Eunsol Choi
cs.AI

초록

우리는 디코더 전용 언어 모델(LLM)에서 널리 사용되는 문맥 예시가 검색 작업에서 임베딩 모델 성능을 향상시킬 수 있는지 조사합니다. LLM과는 달리, 단순히 추론 시에 문맥 예시(쿼리-문서 쌍)를 대상 쿼리 앞에 추가하는 것은 기본적으로 작동하지 않습니다. 우리는 리트리버가 문맥 예시를 활용할 수 있도록 하는 간단한 방법을 소개합니다. 우리의 접근 방식인 RARe는 대상 쿼리와 의미적으로 유사한 문맥 예시로 사전 훈련된 모델을 세밀 조정합니다. 이는 다양한 베이스 아키텍처(즉, 디코더 전용 언어 모델, 리트리버 모델)에 적용될 수 있으며, 다양한 오픈 도메인 검색 데이터셋(BeIR, RAR-b)에서 최대 +2.72% nDCG의 성능 향상을 일관되게 달성합니다. 특히, 우리는 RARe가 문맥 예시를 사용하지 않는 모델에 비해 도메인 밖 일반화에서 더 강한 성능을 보여주며, LLM에서의 문맥 학습에서 관찰되는 것과 유사한 결과를 얻었습니다. 또한, 문맥 예시 증강의 설계 선택에 대한 분석을 제공하고, 이 분야의 미래 작업을 위한 기초를 마련합니다.
English
We investigate whether in-context examples, widely used in decoder-only language models (LLMs), can improve embedding model performance in retrieval tasks. Unlike in LLMs, naively prepending in-context examples (query-document pairs) to the target query at inference time does not work out of the box. We introduce a simple approach to enable retrievers to use in-context examples. Our approach, RARe, finetunes a pre-trained model with in-context examples whose query is semantically similar to the target query. This can be applied to adapt various base architectures (i.e., decoder-only language models, retriever models) and consistently achieves performance gains of up to +2.72% nDCG across various open-domain retrieval datasets (BeIR, RAR-b). In particular, we find RARe exhibits stronger out-of-domain generalization compared to models using queries without in-context examples, similar to what is seen for in-context learning in LLMs. We further provide analysis on the design choices of in-context example augmentation and lay the foundation for future work in this space.

Summary

AI-Generated Summary

논문 개요

이 논문은 검색 작업에서 in-context 예제를 활용하여 임베딩 모델의 성능을 향상시킬 수 있는 가능성을 조사하였습니다. RARe 접근 방식을 소개하고, 다양한 아키텍처에서의 성능 향상을 입증하였으며, in-context 예제의 품질과 양이 성능에 미치는 영향을 분석하였습니다.

핵심 기여

  • RARe 접근 방식을 통해 다양한 기본 아키텍처의 성능 향상을 입증
  • in-context 예제의 품질, 양, 및 선택이 성능에 미치는 영향 분석

연구 맥락

최근 연구에서는 검색 시스템을 특정 작업이나 쿼리에 맞게 맞추는 데 어려움이 있음을 지적하며, RARe는 이를 해결하기 위해 in-context 예제를 활용하고 효과적임을 입증하였습니다.

주요 용어

  • in-context 예제: 특정 작업이나 쿼리에 맞는 예제
  • RARe: Retrieval-Augmented Retrieval

배경

이 연구는 검색 작업에서 in-context 예제를 활용하여 임베딩 모델의 성능을 향상시키는 것을 목표로 하였습니다. 이전 연구에서는 작업별 지시사항을 활용하거나 쿼리에 특정한 지시사항을 사용하는 등 다양한 시도가 있었으나, 이에 대한 효과적인 방법론에 대한 연구가 부족하였습니다.

연구 간격

  • 검색 시스템을 특정 작업이나 쿼리에 맞게 맞추는 어려움
  • in-context 예제를 활용한 성능 향상에 대한 효과적인 방법론 부족

기술적 도전

  • in-context 예제의 품질과 양이 성능에 미치는 영향 분석
  • 검색 모델에 in-context 예제를 추가하는 효과적인 방법론 개발

이전 접근 방식

  • 작업별 지시사항 활용
  • 쿼리에 특정한 지시사항 사용
  • 쿼리 확장 기법 소개

방법론

이 연구에서는 RARe 접근 방식을 소개하고, decoder-only 모델 및 기존 검색 모델을 fine-tuning하여 in-context 예제를 활용하였습니다.

이론적 기반

  • 사전 훈련된 모델을 in-context 예제로 fine-tuning

기술 아키텍처

  • decoder-only 모델 및 기존 검색 모델의 fine-tuning

구현 세부사항

  • 훈련 및 추론 알고리즘 상세 설명
  • in-context 예제 구성 방법 설명

혁신 포인트

  • RARe는 다양한 아키텍처에서 성능 향상을 보임

실험 검증

이 연구에서는 BeIR 및 RAR-b와 같은 다양한 검색 벤치마크 데이터셋을 사용하고, nDCG@10과 같은 표준 검색 메트릭을 활용하여 RARe의 성능을 검증하였습니다.

설정

  • 다양한 검색 벤치마크 데이터셋 사용
  • 표준 검색 메트릭인 nDCG@10 사용

메트릭

  • nDCG@10과 같은 표준 검색 메트릭 사용

결과

  • RARe는 inference-only 수정 후 성능 향상을 보임
  • decoder-only 모델로부터 훈련한 결과가 기존 모델보다 우수함

비교 분석

  • RARe는 Promptriever보다 +2.72%의 절대적인 성능 향상을 보임
  • RepLLaMA와 Promptriever와의 비교에서 우수한 성과를 보임

영향과 함의

이 연구의 결과는 RARe 접근 방식이 다양한 아키텍처에서 성능 향상을 이끌어내며, in-context 예제의 품질과 양이 성능에 미치는 영향을 강조합니다.

주요 결과

  • RARe는 다양한 아키텍처에서 성능 향상을 입증
  • in-context 예제의 품질, 양, 및 선택이 성능에 미치는 영향 분석

한계

  • 영어 언어 작업에 한정된 실험
  • in-context 예제의 최적 개수에 대한 논의 부재

미래 방향

  • 다국어 설정에서의 확장 가능성
  • 새로운 대조적 목표 개발을 통한 연구 방향 제시

실용적 중요성

  • 검색 작업에서 in-context 예제 활용의 실용적인 적용 가능성

이상입니다.

주요 논문

DeepSeek-R1: 강화 학습을 통해 LLMs의 추론 능력을 유도하기
DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning

DeepSeek-AI, Daya Guo, Dejian Yang, Haowei Zhang, Junxiao Song, Ruoyu Zhang, Runxin Xu, Qihao Zhu, Shirong Ma, Peiyi Wang, Xiao Bi, Xiaokang Zhang, Xingkai Yu, Yu Wu, Z. F. Wu, Zhibin Gou, Zhihong Shao, Zhuoshu Li, Ziyi Gao, Aixin Liu, Bing Xue, Bingxuan Wang, Bochao Wu, Bei Feng, Chengda Lu, Chenggang Zhao, Chengqi Deng, Chenyu Zhang, Chong Ruan, Damai Dai, Deli Chen, Dongjie Ji, Erhang Li, Fangyun Lin, Fucong Dai, Fuli Luo, Guangbo Hao, Guanting Chen, Guowei Li, H. Zhang, Han Bao, Hanwei Xu, Haocheng Wang, Honghui Ding, Huajian Xin, Huazuo Gao, Hui Qu, Hui Li, Jianzhong Guo, Jiashi Li, Jiawei Wang, Jingchang Chen, Jingyang Yuan, Junjie Qiu, Junlong Li, J. L. Cai, Jiaqi Ni, Jian Liang, Jin Chen, Kai Dong, Kai Hu, Kaige Gao, Kang Guan, Kexin Huang, Kuai Yu, Lean Wang, Lecong Zhang, Liang Zhao, Litong Wang, Liyue Zhang, Lei Xu, Leyi Xia, Mingchuan Zhang, Minghua Zhang, Minghui Tang, Meng Li, Miaojun Wang, Mingming Li, Ning Tian, Panpan Huang, Peng Zhang, Qiancheng Wang, Qinyu Chen, Qiushi Du, Ruiqi Ge, Ruisong Zhang, Ruizhe Pan, Runji Wang, R. J. Chen, R. L. Jin, Ruyi Chen, Shanghao Lu, Shangyan Zhou, Shanhuang Chen, Shengfeng Ye, Shiyu Wang, Shuiping Yu, Shunfeng Zhou, Shuting Pan, S. S. Li, Shuang Zhou, Shaoqing Wu, Shengfeng Ye, Tao Yun, Tian Pei, Tianyu Sun, T. Wang, Wangding Zeng, Wanjia Zhao, Wen Liu, Wenfeng Liang, Wenjun Gao, Wenqin Yu, Wentao Zhang, W. L. Xiao, Wei An, Xiaodong Liu, Xiaohan Wang, Xiaokang Chen, Xiaotao Nie, Xin Cheng, Xin Liu, Xin Xie, Xingchao Liu, Xinyu Yang, Xinyuan Li, Xuecheng Su, Xuheng Lin, X. Q. Li, Xiangyue Jin, Xiaojin Shen, Xiaosha Chen, Xiaowen Sun, Xiaoxiang Wang, Xinnan Song, Xinyi Zhou, Xianzu Wang, Xinxia Shan, Y. K. Li, Y. Q. Wang, Y. X. Wei, Yang Zhang, Yanhong Xu, Yao Li, Yao Zhao, Yaofeng Sun, Yaohui Wang, Yi Yu, Yichao Zhang, Yifan Shi, Yiliang Xiong, Ying He, Yishi Piao, Yisong Wang, Yixuan Tan, Yiyang Ma, Yiyuan Liu, Yongqiang Guo, Yuan Ou, Yuduan Wang, Yue Gong, Yuheng Zou, Yujia He, Yunfan Xiong, Yuxiang Luo, Yuxiang You, Yuxuan Liu, Yuyang Zhou, Y. X. Zhu, Yanhong Xu, Yanping Huang, Yaohui Li, Yi Zheng, Yuchen Zhu, Yunxian Ma, Ying Tang, Yukun Zha, Yuting Yan, Z. Z. Ren, Zehui Ren, Zhangli Sha, Zhe Fu, Zhean Xu, Zhenda Xie, Zhengyan Zhang, Zhewen Hao, Zhicheng Ma, Zhigang Yan, Zhiyu Wu, Zihui Gu, Zijia Zhu, Zijun Liu, Zilin Li, Ziwei Xie, Ziyang Song, Zizheng Pan, Zhen Huang, Zhipeng Xu, Zhongyu Zhang, Zhen ZhangJan 22, 20253745

Qwen2.5 기술 보고서
Qwen2.5 Technical Report

Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, Zihan QiuDec 19, 202436411

MiniMax-01: 번개 주의를 사용하여 Foundation 모델의 스케일링
MiniMax-01: Scaling Foundation Models with Lightning Attention

MiniMax, Aonian Li, Bangwei Gong, Bo Yang, Boji Shan, Chang Liu, Cheng Zhu, Chunhao Zhang, Congchao Guo, Da Chen, Dong Li, Enwei Jiao, Gengxin Li, Guojun Zhang, Haohai Sun, Houze Dong, Jiadai Zhu, Jiaqi Zhuang, Jiayuan Song, Jin Zhu, Jingtao Han, Jingyang Li, Junbin Xie, Junhao Xu, Junjie Yan, Kaishun Zhang, Kecheng Xiao, Kexi Kang, Le Han, Leyang Wang, Lianfei Yu, Liheng Feng, Lin Zheng, Linbo Chai, Long Xing, Meizhi Ju, Mingyuan Chi, Mozhi Zhang, Peikai Huang, Pengcheng Niu, Pengfei Li, Pengyu Zhao, Qi Yang, Qidi Xu, Qiexiang Wang, Qin Wang, Qiuhui Li, Ruitao Leng, Shengmin Shi, Shuqi Yu, Sichen Li, Songquan Zhu, Tao Huang, Tianrun Liang, Weigao Sun, Weixuan Sun, Weiyu Cheng, Wenkai Li, Xiangjun Song, Xiao Su, Xiaodong Han, Xinjie Zhang, Xinzhu Hou, Xu Min, Xun Zou, Xuyang Shen, Yan Gong, Yingjie Zhu, Yipeng Zhou, Yiran Zhong, Yongyi Hu, Yuanxiang Fan, Yue Yu, Yufeng Yang, Yuhao Li, Yunan Huang, Yunji Li, Yunpeng Huang, Yunzhi Xu, Yuxin Mao, Zehan Li, Zekang Li, Zewei Tao, Zewen Ying, Zhaoyang Cong, Zhen Qin, Zhenhua Fan, Zhihang Yu, Zhuo Jiang, Zijia WuJan 14, 20252846

PDF53November 16, 2024