La multi-espertezza nell'incoraggiamento migliora l'affidabilità, la sicurezza e l'utilità dei grandi modelli linguistici.
Multi-expert Prompting Improves Reliability, Safety, and Usefulness of Large Language Models
November 1, 2024
Autori: Do Xuan Long, Duong Ngoc Yen, Anh Tuan Luu, Kenji Kawaguchi, Min-Yen Kan, Nancy F. Chen
cs.AI
Abstract
Presentiamo il Multi-expert Prompting, un nuovo miglioramento di ExpertPrompting (Xu et al., 2023), progettato per migliorare la generazione del grande modello linguistico (LLM). In particolare, guida un LLM a soddisfare un'istruzione in ingresso simulando diversi esperti, aggregando le loro risposte e selezionando la migliore tra le risposte individuali e aggregate. Questo processo viene eseguito in una singola catena di pensieri attraverso i nostri sette sotto-compiti attentamente progettati derivati dalla Tecnica del Gruppo Nominale (Ven e Delbecq, 1974), un framework decisionale ben consolidato. Le nostre valutazioni dimostrano che il Multi-expert Prompting supera significativamente ExpertPrompting e baselines comparabili nel migliorare la veridicità, la factualità, l'informatività e l'utilità delle risposte riducendo al contempo la tossicità e l'offensività. Inoltre, raggiunge la veridicità all'avanguardia superando il miglior baseline del 8,69% con ChatGPT. Il Multi-expert Prompting è efficiente, spiegabile e altamente adattabile a scenari diversi, eliminando la necessità di costruzione manuale delle istruzioni.
English
We present Multi-expert Prompting, a novel enhancement of ExpertPrompting (Xu
et al., 2023), designed to improve the large language model (LLM) generation.
Specifically, it guides an LLM to fulfill an input instruction by simulating
multiple experts, aggregating their responses, and selecting the best among
individual and aggregated responses. This process is performed in a single
chain of thoughts through our seven carefully designed subtasks derived from
the Nominal Group Technique (Ven and Delbecq, 1974), a well-established
decision-making framework. Our evaluations demonstrate that Multi-expert
Prompting significantly outperforms ExpertPrompting and comparable baselines in
enhancing the truthfulness, factuality, informativeness, and usefulness of
responses while reducing toxicity and hurtfulness. It further achieves
state-of-the-art truthfulness by outperforming the best baseline by 8.69% with
ChatGPT. Multi-expert Prompting is efficient, explainable, and highly adaptable
to diverse scenarios, eliminating the need for manual prompt construction.Summary
AI-Generated Summary