RARé : Recherche Augmentée par la Recherche avec Exemples en Contexte

RARe: Retrieval Augmented Retrieval with In-Context Examples

October 26, 2024
Auteurs: Atula Tejaswi, Yoonsang Lee, Sujay Sanghavi, Eunsol Choi
cs.AI

Résumé

Nous étudions si les exemples en contexte, largement utilisés dans les modèles de langage à décodeur uniquement (LLM), peuvent améliorer les performances des modèles d'incorporation dans les tâches de recherche. Contrairement aux LLM, le fait d'ajouter naïvement des exemples en contexte (paires requête-document) à la requête cible au moment de l'inférence ne fonctionne pas immédiatement. Nous introduisons une approche simple pour permettre aux systèmes de recherche d'utiliser des exemples en contexte. Notre approche, RARe, affine un modèle pré-entraîné avec des exemples en contexte dont la requête est sémantiquement similaire à la requête cible. Cela peut être appliqué pour adapter diverses architectures de base (c'est-à-dire, les modèles de langage à décodeur uniquement, les modèles de recherche) et atteint systématiquement des améliorations de performances allant jusqu'à +2,72% nDCG sur divers ensembles de données de recherche en domaine ouvert (BeIR, RAR-b). En particulier, nous constatons que RARe présente une meilleure généralisation hors domaine par rapport aux modèles utilisant des requêtes sans exemples en contexte, similaire à ce qui est observé pour l'apprentissage en contexte dans les LLM. Nous fournissons en outre une analyse des choix de conception de l'augmentation des exemples en contexte et posons les bases pour les travaux futurs dans ce domaine.
English
We investigate whether in-context examples, widely used in decoder-only language models (LLMs), can improve embedding model performance in retrieval tasks. Unlike in LLMs, naively prepending in-context examples (query-document pairs) to the target query at inference time does not work out of the box. We introduce a simple approach to enable retrievers to use in-context examples. Our approach, RARe, finetunes a pre-trained model with in-context examples whose query is semantically similar to the target query. This can be applied to adapt various base architectures (i.e., decoder-only language models, retriever models) and consistently achieves performance gains of up to +2.72% nDCG across various open-domain retrieval datasets (BeIR, RAR-b). In particular, we find RARe exhibits stronger out-of-domain generalization compared to models using queries without in-context examples, similar to what is seen for in-context learning in LLMs. We further provide analysis on the design choices of in-context example augmentation and lay the foundation for future work in this space.

Summary

AI-Generated Summary

PDF53November 16, 2024