ChatPaper.aiChatPaper

다중 LLM 텍스트 요약

Multi-LLM Text Summarization

December 20, 2024
저자: Jiangnan Fang, Cheng-Tse Liu, Jieun Kim, Yash Bhedaru, Ethan Liu, Nikhil Singh, Nedim Lipka, Puneet Mathur, Nesreen K. Ahmed, Franck Dernoncourt, Ryan A. Rossi, Hanieh Deilamsalehy
cs.AI

초록

본 연구에서는 Multi-LLM 요약 프레임워크를 제안하고 중앙집중식 및 분산식을 포함한 두 가지 다른 Multi-LLM 전략을 조사합니다. 우리의 Multi-LLM 요약 프레임워크는 대화의 각 라운드마다 두 가지 근본적으로 중요한 단계, 즉 생성과 평가가 있습니다. 이러한 단계는 우리의 Multi-LLM 분산 요약이 사용되는지 중앙집중식인지에 따라 다릅니다. 우리의 Multi-LLM 분산 및 중앙집중 전략 모두 텍스트의 다양한 요약을 생성하는 k개의 다른 LLM을 보유하고 있습니다. 그러나 평가 과정에서 우리의 Multi-LLM 중앙집중식 요약 접근 방식은 단일 LLM을 활용하여 요약을 평가하고 최적의 요약을 선택하는 반면, 분산식 Multi-LLM 요약에는 k개의 LLM이 사용됩니다. 전반적으로, 우리의 Multi-LLM 요약 접근 방식은 단일 LLM만 활용하는 기준선을 최대 3배까지 능가하는 것으로 나타났습니다. 이러한 결과는 요약을 위한 Multi-LLM 접근 방식의 효과를 보여줍니다.
English
In this work, we propose a Multi-LLM summarization framework, and investigate two different multi-LLM strategies including centralized and decentralized. Our multi-LLM summarization framework has two fundamentally important steps at each round of conversation: generation and evaluation. These steps are different depending on whether our multi-LLM decentralized summarization is used or centralized. In both our multi-LLM decentralized and centralized strategies, we have k different LLMs that generate diverse summaries of the text. However, during evaluation, our multi-LLM centralized summarization approach leverages a single LLM to evaluate the summaries and select the best one whereas k LLMs are used for decentralized multi-LLM summarization. Overall, we find that our multi-LLM summarization approaches significantly outperform the baselines that leverage only a single LLM by up to 3x. These results indicate the effectiveness of multi-LLM approaches for summarization.
PDF62December 23, 2024