Multi-expert Prompting verbetert de betrouwbaarheid, veiligheid en bruikbaarheid van grote taalmodellen.

Multi-expert Prompting Improves Reliability, Safety, and Usefulness of Large Language Models

November 1, 2024
Auteurs: Do Xuan Long, Duong Ngoc Yen, Anh Tuan Luu, Kenji Kawaguchi, Min-Yen Kan, Nancy F. Chen
cs.AI

Samenvatting

Wij presenteren Multi-expert Aansturing, een nieuwe verbetering van ExpertAansturing (Xu et al., 2023), ontworpen om de generatie van grote taalmodellen (GTM) te verbeteren. Specifiek begeleidt het een GTM om een invoerinstructie te vervullen door meerdere experts te simuleren, hun reacties te aggregeren en de beste te selecteren uit individuele en geaggregeerde reacties. Dit proces wordt uitgevoerd in een enkele gedachtegang via onze zeven zorgvuldig ontworpen subtaken afgeleid van de Nominal Group Techniek (Ven en Delbecq, 1974), een goed ingeburgerd besluitvormingskader. Onze evaluaties tonen aan dat Multi-expert Aansturing aanzienlijk beter presteert dan ExpertAansturing en vergelijkbare baselines bij het verbeteren van de waarachtigheid, feitelijkheid, informativiteit en bruikbaarheid van reacties, terwijl toxiciteit en kwetsendheid worden verminderd. Het behaalt verder een state-of-the-art waarachtigheid door de beste baseline met 8.69% te overtreffen met ChatGPT. Multi-expert Aansturing is efficiënt, verklaarbaar en zeer aanpasbaar aan diverse scenario's, waardoor de noodzaak voor handmatige promptconstructie wordt geëlimineerd.
English
We present Multi-expert Prompting, a novel enhancement of ExpertPrompting (Xu et al., 2023), designed to improve the large language model (LLM) generation. Specifically, it guides an LLM to fulfill an input instruction by simulating multiple experts, aggregating their responses, and selecting the best among individual and aggregated responses. This process is performed in a single chain of thoughts through our seven carefully designed subtasks derived from the Nominal Group Technique (Ven and Delbecq, 1974), a well-established decision-making framework. Our evaluations demonstrate that Multi-expert Prompting significantly outperforms ExpertPrompting and comparable baselines in enhancing the truthfulness, factuality, informativeness, and usefulness of responses while reducing toxicity and hurtfulness. It further achieves state-of-the-art truthfulness by outperforming the best baseline by 8.69% with ChatGPT. Multi-expert Prompting is efficient, explainable, and highly adaptable to diverse scenarios, eliminating the need for manual prompt construction.

Summary

AI-Generated Summary

PDF52November 13, 2024