La sollicitation multi-experts améliore la fiabilité, la sécurité et l'utilité des grands modèles de langage.

Multi-expert Prompting Improves Reliability, Safety, and Usefulness of Large Language Models

November 1, 2024
Auteurs: Do Xuan Long, Duong Ngoc Yen, Anh Tuan Luu, Kenji Kawaguchi, Min-Yen Kan, Nancy F. Chen
cs.AI

Résumé

Nous présentons le Multi-expert Prompting, une nouvelle amélioration de l'ExpertPrompting (Xu et al., 2023), conçue pour améliorer la génération de grands modèles de langage (LLM). Plus précisément, il guide un LLM pour remplir une instruction d'entrée en simulant plusieurs experts, en agrégeant leurs réponses, et en sélectionnant la meilleure parmi les réponses individuelles et agrégées. Ce processus est effectué dans une seule chaîne de pensées à travers nos sept sous-tâches soigneusement conçues dérivées de la Technique du Groupe Nominal (Ven et Delbecq, 1974), un cadre de prise de décision bien établi. Nos évaluations démontrent que le Multi-expert Prompting surpasse significativement l'ExpertPrompting et les baselines comparables dans l'amélioration de la véracité, de la factualité, de l'informativité et de l'utilité des réponses tout en réduisant la toxicité et la nocivité. Il atteint en outre un niveau de véracité de pointe en surpassant la meilleure baseline de 8,69% avec ChatGPT. Le Multi-expert Prompting est efficace, explicatif et hautement adaptable à divers scénarios, éliminant le besoin de construction manuelle de l'instruction.
English
We present Multi-expert Prompting, a novel enhancement of ExpertPrompting (Xu et al., 2023), designed to improve the large language model (LLM) generation. Specifically, it guides an LLM to fulfill an input instruction by simulating multiple experts, aggregating their responses, and selecting the best among individual and aggregated responses. This process is performed in a single chain of thoughts through our seven carefully designed subtasks derived from the Nominal Group Technique (Ven and Delbecq, 1974), a well-established decision-making framework. Our evaluations demonstrate that Multi-expert Prompting significantly outperforms ExpertPrompting and comparable baselines in enhancing the truthfulness, factuality, informativeness, and usefulness of responses while reducing toxicity and hurtfulness. It further achieves state-of-the-art truthfulness by outperforming the best baseline by 8.69% with ChatGPT. Multi-expert Prompting is efficient, explainable, and highly adaptable to diverse scenarios, eliminating the need for manual prompt construction.

Summary

AI-Generated Summary

PDF52November 13, 2024