多任務檢索器微調,用於特定領域和高效的RAG

Multi-task retriever fine-tuning for domain-specific and efficient RAG

January 8, 2025
作者: Patrice Béchard, Orlando Marquez Ayala
cs.AI

摘要

檢索增強生成(RAG)在部署大型語言模型(LLM)時變得普遍,因為它可以解決典型限制,如生成幻覺或過時信息。然而,在構建真實世界的RAG應用時,會出現實際問題。首先,檢索到的信息通常是特定於領域的。由於對LLM進行微調的計算成本較高,因此更可行的是微調檢索器以提高包含在LLM輸入中的數據質量。其次,隨著更多應用在同一真實世界系統中部署,無法負擔部署獨立的檢索器。此外,這些RAG應用通常檢索不同類型的數據。我們的解決方案是對各種特定於領域的任務進行指導微調小型檢索器編碼器,以使我們能夠部署一個編碼器來滿足許多用例,從而實現低成本、可擴展性和速度。我們展示了這個編碼器如何泛化到跨領域設置,以及在真實企業用例中對未見過的檢索任務的應用。
English
Retrieval-Augmented Generation (RAG) has become ubiquitous when deploying Large Language Models (LLMs), as it can address typical limitations such as generating hallucinated or outdated information. However, when building real-world RAG applications, practical issues arise. First, the retrieved information is generally domain-specific. Since it is computationally expensive to fine-tune LLMs, it is more feasible to fine-tune the retriever to improve the quality of the data included in the LLM input. Second, as more applications are deployed in the same real-world system, one cannot afford to deploy separate retrievers. Moreover, these RAG applications normally retrieve different kinds of data. Our solution is to instruction fine-tune a small retriever encoder on a variety of domain-specific tasks to allow us to deploy one encoder that can serve many use cases, thereby achieving low-cost, scalability, and speed. We show how this encoder generalizes to out-of-domain settings as well as to an unseen retrieval task on real-world enterprise use cases.

Summary

AI-Generated Summary

論文概述

RAG在LLM部署中變得普遍,解決了生成幻覺或過時信息等限制。為了提高LLM輸入數據質量,研究提出了instruction fine-tune小型檢索器編碼器的解決方案,實現低成本、可擴展性和速度。

核心貢獻

  • 提出instruction fine-tune小型檢索器編碼器的解決方案。
  • 展示多任務檢索器微調對域外數據集和相關但不同的檢索任務的泛化效果。

研究背景

本研究針對檢索器微調以提高LLM輸入數據質量展開。在實際應用中,檢索信息通常是特定於領域的,需要微調檢索器以提高效能。

研究缺口

  • 需要針對特定領域微調檢索器以提高LLM輸入數據質量。
  • 現有方法對於域外數據集和相關但不同的檢索任務的泛化效果有限。

技術挑戰

  • 如何實現低成本、可擴展性和速度的檢索器微調。
  • 如何處理步驟檢索任務中存在的嚴重不平衡。

先前方法

  • 先前方法主要集中在單一任務微調,對於多任務微調的研究較少。

方法論

該研究通過構建多任務檢索器數據集,使用mGTE進行fine-tune,並進行多個評估,包括域外設置上的性能評估和對相關但不同的檢索任務的評估。

理論基礎

  • 使用mGTE進行fine-tune以實現檢索器微調。

技術架構

  • 構建多任務檢索器數據集,重複使用Flow Generation訓練集。
  • 使用Recall@K作為評估指標,比較單一任務和多任務的效果。

實施細節

  • 訓練集包括所有從Flow generation訓練集和數據表中提取的對。
  • 使用企業系統部署的10個拆分進行實驗評估。

創新點

  • 多任務微調使檢索器在多語言能力和泛化能力上表現良好。
  • 通過多任務訓練和指令微調,構建了一個305M參數的領域特定檢索器。

實驗驗證

研究使用正負樣本進行訓練和評估,並在開發集上評估步驟、表名和表字段的檢索任務。

設置

  • 使用Recall@K作為評估指標。
  • 使用企業系統部署的10個拆分進行評估。

指標

  • 評估多任務微調的效果。
  • 比較BM25和開源模型在OOD拆分上的表現。

結果

  • 多任務微調的檢索器在多語言能力和類似檢索任務上表現優異。
  • 多任務微調的檢索器在workflow檢索任務上優於其他模型。

比較分析

  • 比較了BM25和開源模型在OOD拆分上的表現,結果顯示多任務微調的模型更優。

影響與啟示

該研究展示了多任務微調對檢索器性能的提升,但也存在一些限制,未來可探索更多研究機會,並應用於實際客戶環境中。

關鍵發現

  • 多任務微調可提高檢索器的泛化能力和效能。
  • 多任務微調在多語言能力和類似檢索任務上表現良好。

限制

  • 步驟檢索任務存在嚴重不平衡。
  • 需要更多研究來解決實際應用中的挑戰。

未來方向

  • 進一步研究多任務微調的機制。
  • 應用於更廣泛的領域和實際客戶環境中。

實際意義

  • 多任務微調可應用於實際客戶環境,提高檢索器效能。

熱門論文

1比特LLM時代:所有大型語言模型都在1.58比特。
The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits

Shuming Ma, Hongyu Wang, Lingxiao Ma, Lei Wang, Wenhui Wang, Shaohan Huang, Li Dong, Ruiping Wang, Jilong Xue, Furu WeiFeb 27, 2024612142

DeepSeek-R1:通過強化學習激勵LLM中的推理能力
DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning

DeepSeek-AI, Daya Guo, Dejian Yang, Haowei Zhang, Junxiao Song, Ruoyu Zhang, Runxin Xu, Qihao Zhu, Shirong Ma, Peiyi Wang, Xiao Bi, Xiaokang Zhang, Xingkai Yu, Yu Wu, Z. F. Wu, Zhibin Gou, Zhihong Shao, Zhuoshu Li, Ziyi Gao, Aixin Liu, Bing Xue, Bingxuan Wang, Bochao Wu, Bei Feng, Chengda Lu, Chenggang Zhao, Chengqi Deng, Chenyu Zhang, Chong Ruan, Damai Dai, Deli Chen, Dongjie Ji, Erhang Li, Fangyun Lin, Fucong Dai, Fuli Luo, Guangbo Hao, Guanting Chen, Guowei Li, H. Zhang, Han Bao, Hanwei Xu, Haocheng Wang, Honghui Ding, Huajian Xin, Huazuo Gao, Hui Qu, Hui Li, Jianzhong Guo, Jiashi Li, Jiawei Wang, Jingchang Chen, Jingyang Yuan, Junjie Qiu, Junlong Li, J. L. Cai, Jiaqi Ni, Jian Liang, Jin Chen, Kai Dong, Kai Hu, Kaige Gao, Kang Guan, Kexin Huang, Kuai Yu, Lean Wang, Lecong Zhang, Liang Zhao, Litong Wang, Liyue Zhang, Lei Xu, Leyi Xia, Mingchuan Zhang, Minghua Zhang, Minghui Tang, Meng Li, Miaojun Wang, Mingming Li, Ning Tian, Panpan Huang, Peng Zhang, Qiancheng Wang, Qinyu Chen, Qiushi Du, Ruiqi Ge, Ruisong Zhang, Ruizhe Pan, Runji Wang, R. J. Chen, R. L. Jin, Ruyi Chen, Shanghao Lu, Shangyan Zhou, Shanhuang Chen, Shengfeng Ye, Shiyu Wang, Shuiping Yu, Shunfeng Zhou, Shuting Pan, S. S. Li, Shuang Zhou, Shaoqing Wu, Shengfeng Ye, Tao Yun, Tian Pei, Tianyu Sun, T. Wang, Wangding Zeng, Wanjia Zhao, Wen Liu, Wenfeng Liang, Wenjun Gao, Wenqin Yu, Wentao Zhang, W. L. Xiao, Wei An, Xiaodong Liu, Xiaohan Wang, Xiaokang Chen, Xiaotao Nie, Xin Cheng, Xin Liu, Xin Xie, Xingchao Liu, Xinyu Yang, Xinyuan Li, Xuecheng Su, Xuheng Lin, X. Q. Li, Xiangyue Jin, Xiaojin Shen, Xiaosha Chen, Xiaowen Sun, Xiaoxiang Wang, Xinnan Song, Xinyi Zhou, Xianzu Wang, Xinxia Shan, Y. K. Li, Y. Q. Wang, Y. X. Wei, Yang Zhang, Yanhong Xu, Yao Li, Yao Zhao, Yaofeng Sun, Yaohui Wang, Yi Yu, Yichao Zhang, Yifan Shi, Yiliang Xiong, Ying He, Yishi Piao, Yisong Wang, Yixuan Tan, Yiyang Ma, Yiyuan Liu, Yongqiang Guo, Yuan Ou, Yuduan Wang, Yue Gong, Yuheng Zou, Yujia He, Yunfan Xiong, Yuxiang Luo, Yuxiang You, Yuxuan Liu, Yuyang Zhou, Y. X. Zhu, Yanhong Xu, Yanping Huang, Yaohui Li, Yi Zheng, Yuchen Zhu, Yunxian Ma, Ying Tang, Yukun Zha, Yuting Yan, Z. Z. Ren, Zehui Ren, Zhangli Sha, Zhe Fu, Zhean Xu, Zhenda Xie, Zhengyan Zhang, Zhewen Hao, Zhicheng Ma, Zhigang Yan, Zhiyu Wu, Zihui Gu, Zijia Zhu, Zijun Liu, Zilin Li, Ziwei Xie, Ziyang Song, Zizheng Pan, Zhen Huang, Zhipeng Xu, Zhongyu Zhang, Zhen ZhangJan 22, 20253735

Qwen2.5 技術報告
Qwen2.5 Technical Report

Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, Zihan QiuDec 19, 202436311

PDF102January 9, 2025