ChatPaper.aiChatPaper

GMAI-VL 및 GMAI-VL-5.5M: 일반 의료 AI를 향한 대규모 비전-언어 모델 및 포괄적 다중 모달 데이터셋

GMAI-VL & GMAI-VL-5.5M: A Large Vision-Language Model and A Comprehensive Multimodal Dataset Towards General Medical AI

November 21, 2024
저자: Tianbin Li, Yanzhou Su, Wei Li, Bin Fu, Zhe Chen, Ziyan Huang, Guoan Wang, Chenglong Ma, Ying Chen, Ming Hu, Yanjun Li, Pengcheng Chen, Xiaowei Hu, Zhongying Deng, Yuanfeng Ji, Jin Ye, Yu Qiao, Junjun He
cs.AI

초록

일반적인 인공지능 분야에서의 중요한 발전이 있었음에도 불구하고, 예를 들어 GPT-4와 같은 것들이 의료 분야(일반 의료 인공지능, GMAI)에서는 전문적인 의료 지식의 부재로 인해 효과가 제한되어 있습니다. 이러한 도전에 대처하기 위해, 우리는 수백 개의 전문 의료 데이터셋을 세심하게 구축된 이미지-텍스트 쌍으로 변환하여 만든 포괄적인 다중 모달 의료 데이터셋인 GMAI-VL-5.5M을 제시합니다. 이 데이터셋은 포괄적인 작업 범위, 다양한 모달리티, 그리고 고품질의 이미지-텍스트 데이터를 특징으로 합니다. 이 다중 모달 데이터셋을 기반으로, 우리는 점진적으로 세 단계의 훈련 전략을 갖춘 일반 의료 비전-언어 모델인 GMAI-VL을 제안합니다. 이 방법은 시각적 및 텍스트 정보를 통합함으로써 모델의 능력을 크게 향상시키며, 다중 모달 데이터를 처리하고 정확한 진단 및 임상 의사 결정을 지원하는 능력을 향상시킵니다. 실험적 평가 결과, GMAI-VL이 시각적 질문 응답 및 의료 이미지 진단과 같은 다양한 다중 모달 의료 작업에서 최첨단 결과를 달성한다는 것을 보여줍니다. 우리의 기여에는 GMAI-VL-5.5M 데이터셋의 개발, GMAI-VL 모델의 소개, 그리고 여러 의료 분야에서 새로운 기준의 수립이 포함됩니다. 코드와 데이터셋은 https://github.com/uni-medical/GMAI-VL에서 공개될 예정입니다.
English
Despite significant advancements in general artificial intelligence, such as GPT-4, their effectiveness in the medical domain (general medical AI, GMAI) remains constrained due to the absence of specialized medical knowledge. To address this challenge, we present GMAI-VL-5.5M, a comprehensive multimodal medical dataset created by converting hundreds of specialized medical datasets into meticulously constructed image-text pairs. This dataset features comprehensive task coverage, diverse modalities, and high-quality image-text data. Building upon this multimodal dataset, we propose GMAI-VL, a general medical vision-language model with a progressively three-stage training strategy. This approach significantly enhances the model's ability by integrating visual and textual information, thereby improving its ability to process multimodal data and support accurate diagnosis and clinical decision-making. Experimental evaluations demonstrate that GMAI-VL achieves state-of-the-art results across a wide range of multimodal medical tasks, such as visual question answering and medical image diagnosis. Our contributions include the development of the GMAI-VL-5.5M dataset, the introduction of the GMAI-VL model, and the establishment of new benchmarks in multiple medical domains. Code and dataset will be released at https://github.com/uni-medical/GMAI-VL.

Summary

AI-Generated Summary

PDF342November 26, 2024