ORID: Organ-Regionales informationsgesteuertes Rahmenwerk für die Generierung von Radiologieberichten

ORID: Organ-Regional Information Driven Framework for Radiology Report Generation

November 20, 2024
Autoren: Tiancheng Gu, Kaicheng Yang, Xiang An, Ziyong Feng, Dongnan Liu, Weidong Cai
cs.AI

Zusammenfassung

Das Ziel der Radiologie-Berichterstellung (RRG) besteht darin, automatisch kohärente textuelle Analysen von Krankheiten auf der Grundlage radiologischer Bilder zu erstellen, um so die Arbeitsbelastung der Radiologen zu verringern. Aktuelle KI-basierte Methoden für RRG konzentrieren sich hauptsächlich auf Modifikationen der Architektur des Encoder-Decoder-Modells. Um diese Ansätze voranzutreiben, stellt dieses Papier ein Organ-Regional-Information-Driven (ORID) Framework vor, das multi-modale Informationen effektiv integrieren und den Einfluss von Störungen durch nicht zusammenhängende Organe reduzieren kann. Basierend auf dem LLaVA-Med erstellen wir zunächst einen RRG-bezogenen Anweisungsdatensatz, um die Fähigkeit zur Beschreibung der organregionalen Diagnose zu verbessern und den LLaVA-Med-RRG zu erhalten. Anschließend schlagen wir ein organbasiertes Cross-Modal-Fusionsmodul vor, um die Informationen aus der organregionalen Diagnosebeschreibung und dem radiologischen Bild effektiv zu kombinieren. Um den Einfluss von Störungen durch nicht zusammenhängende Organe auf die Erstellung des Radiologieberichts weiter zu reduzieren, führen wir ein Modul zur Analyse des Organ-Importanzkoeffizienten ein, das auf einem Graph-Neuralen-Netzwerk (GNN) basiert, um die Wechselwirkungen der Cross-Modal-Informationen jeder Organregion zu untersuchen. Umfangreiche Experimente und Vergleiche mit State-of-the-Art-Methoden anhand verschiedener Bewertungskriterien zeigen die überragende Leistung unseres vorgeschlagenen Verfahrens.
English
The objective of Radiology Report Generation (RRG) is to automatically generate coherent textual analyses of diseases based on radiological images, thereby alleviating the workload of radiologists. Current AI-based methods for RRG primarily focus on modifications to the encoder-decoder model architecture. To advance these approaches, this paper introduces an Organ-Regional Information Driven (ORID) framework which can effectively integrate multi-modal information and reduce the influence of noise from unrelated organs. Specifically, based on the LLaVA-Med, we first construct an RRG-related instruction dataset to improve organ-regional diagnosis description ability and get the LLaVA-Med-RRG. After that, we propose an organ-based cross-modal fusion module to effectively combine the information from the organ-regional diagnosis description and radiology image. To further reduce the influence of noise from unrelated organs on the radiology report generation, we introduce an organ importance coefficient analysis module, which leverages Graph Neural Network (GNN) to examine the interconnections of the cross-modal information of each organ region. Extensive experiments an1d comparisons with state-of-the-art methods across various evaluation metrics demonstrate the superior performance of our proposed method.

Summary

AI-Generated Summary

PDF22November 21, 2024