Nul-Schot Dichte Terugvinding met Embeddings van Relevantie Feedback.

Zero-Shot Dense Retrieval with Embeddings from Relevance Feedback

October 28, 2024
Auteurs: Nour Jedidi, Yung-Sung Chuang, Leslie Shing, James Glass
cs.AI

Samenvatting

Het blijft moeilijk om effectieve dense retrieval systemen te bouwen wanneer er geen relevantiebegeleiding beschikbaar is. Recent werk heeft geprobeerd dit probleem te overwinnen door een Groot Taalmodel (LLM) te gebruiken om hypothetische documenten te genereren die kunnen worden gebruikt om het dichtstbijzijnde echte document te vinden. Deze aanpak vertrouwt echter alleen op het LLM om domeinspecifieke kennis te hebben die relevant is voor de query, wat mogelijk niet praktisch is. Bovendien kan het genereren van hypothetische documenten inefficiënt zijn, omdat het LLM een groot aantal tokens moet genereren voor elke query. Om deze uitdagingen aan te pakken, introduceren we Echte Document Embeddings van Relevantie Feedback (ReDE-RF). Geïnspireerd door relevantie feedback, stelt ReDE-RF voor om het genereren van hypothetische documenten te herformuleren als een relevantieschattingstaak, waarbij een LLM wordt gebruikt om te selecteren welke documenten moeten worden gebruikt voor de zoektocht naar het dichtstbijzijnde buurdocument. Door deze herformulering heeft het LLM geen domeinspecifieke kennis meer nodig, maar hoeft het alleen te beoordelen wat relevant is. Bovendien vereist relevantieschatting slechts dat het LLM één token uitvoert, waardoor de zoeklatentie verbetert. Onze experimenten tonen aan dat ReDE-RF consequent de state-of-the-art zero-shot dense retrieval methoden overtreft over een breed scala van datasets voor informatieopvraging met beperkte middelen, terwijl ook aanzienlijke verbeteringen worden gemaakt in latentie per query.
English
Building effective dense retrieval systems remains difficult when relevance supervision is not available. Recent work has looked to overcome this challenge by using a Large Language Model (LLM) to generate hypothetical documents that can be used to find the closest real document. However, this approach relies solely on the LLM to have domain-specific knowledge relevant to the query, which may not be practical. Furthermore, generating hypothetical documents can be inefficient as it requires the LLM to generate a large number of tokens for each query. To address these challenges, we introduce Real Document Embeddings from Relevance Feedback (ReDE-RF). Inspired by relevance feedback, ReDE-RF proposes to re-frame hypothetical document generation as a relevance estimation task, using an LLM to select which documents should be used for nearest neighbor search. Through this re-framing, the LLM no longer needs domain-specific knowledge but only needs to judge what is relevant. Additionally, relevance estimation only requires the LLM to output a single token, thereby improving search latency. Our experiments show that ReDE-RF consistently surpasses state-of-the-art zero-shot dense retrieval methods across a wide range of low-resource retrieval datasets while also making significant improvements in latency per-query.

Summary

AI-Generated Summary

PDF62November 16, 2024