Recupero denso a zero colpi con embedding dal feedback di rilevanza

Zero-Shot Dense Retrieval with Embeddings from Relevance Feedback

October 28, 2024
Autori: Nour Jedidi, Yung-Sung Chuang, Leslie Shing, James Glass
cs.AI

Abstract

Costruire sistemi di recupero denso efficaci rimane difficile quando la supervisione della rilevanza non è disponibile. Lavori recenti hanno cercato di superare questa sfida utilizzando un Grande Modello Linguistico (LLM) per generare documenti ipotetici che possono essere utilizzati per trovare il documento reale più vicino. Tuttavia, questo approccio si basa esclusivamente sul fatto che il LLM abbia conoscenze specifiche del dominio rilevanti per la query, il che potrebbe non essere pratico. Inoltre, generare documenti ipotetici può essere inefficiente in quanto richiede al LLM di generare un gran numero di token per ogni query. Per affrontare queste sfide, presentiamo i Real Document Embeddings from Relevance Feedback (ReDE-RF). Ispirato al feedback di rilevanza, ReDE-RF propone di riformulare la generazione di documenti ipotetici come un compito di stima della rilevanza, utilizzando un LLM per selezionare quali documenti dovrebbero essere utilizzati per la ricerca del vicino più prossimo. Attraverso questa riformulazione, il LLM non ha più bisogno di conoscenze specifiche del dominio ma deve solo valutare ciò che è rilevante. Inoltre, la stima della rilevanza richiede al LLM di produrre un singolo token, migliorando così la latenza della ricerca. I nostri esperimenti mostrano che ReDE-RF supera costantemente i metodi di recupero denso zero-shot all'avanguardia su una vasta gamma di set di dati di recupero a bassa risorsa, apportando significativi miglioramenti anche nella latenza per query.
English
Building effective dense retrieval systems remains difficult when relevance supervision is not available. Recent work has looked to overcome this challenge by using a Large Language Model (LLM) to generate hypothetical documents that can be used to find the closest real document. However, this approach relies solely on the LLM to have domain-specific knowledge relevant to the query, which may not be practical. Furthermore, generating hypothetical documents can be inefficient as it requires the LLM to generate a large number of tokens for each query. To address these challenges, we introduce Real Document Embeddings from Relevance Feedback (ReDE-RF). Inspired by relevance feedback, ReDE-RF proposes to re-frame hypothetical document generation as a relevance estimation task, using an LLM to select which documents should be used for nearest neighbor search. Through this re-framing, the LLM no longer needs domain-specific knowledge but only needs to judge what is relevant. Additionally, relevance estimation only requires the LLM to output a single token, thereby improving search latency. Our experiments show that ReDE-RF consistently surpasses state-of-the-art zero-shot dense retrieval methods across a wide range of low-resource retrieval datasets while also making significant improvements in latency per-query.

Summary

AI-Generated Summary

PDF82November 16, 2024