MRGen: Motore di Dati Controllabile basato sulla Diffusione per la Segmentazione mediante Modalità non Annotate

MRGen: Diffusion-based Controllable Data Engine for MRI Segmentation towards Unannotated Modalities

December 4, 2024
Autori: Haoning Wu, Ziheng Zhao, Ya Zhang, Weidi Xie, Yanfeng Wang
cs.AI

Abstract

La segmentazione delle immagini mediche ha recentemente dimostrato un notevole progresso con le reti neurali profonde, tuttavia le modalità eterogenee e la scarsità di annotazioni delle maschere limitano lo sviluppo dei modelli di segmentazione su modalità non annotate. Questo articolo investiga un nuovo paradigma per sfruttare i modelli generativi nelle applicazioni mediche: sintetizzare in modo controllabile dati per modalità non annotate, senza richiedere coppie di dati registrati. In particolare, apportiamo i seguenti contributi in questo articolo: (i) raccogliamo e curiamo un dataset di immagini-testo radiologiche su larga scala, MedGen-1M, che comprende etichette di modalità, attributi, informazioni sulla regione e sull'organo, insieme a un sottoinsieme di annotazioni delle maschere degli organi, per supportare la ricerca nella generazione controllabile di immagini mediche; (ii) proponiamo un motore di dati basato sulla diffusione, denominato MRGen, che consente la generazione condizionata da prompt di testo e maschere, sintetizzando immagini RM per diverse modalità prive di annotazioni delle maschere, per addestrare modelli di segmentazione su modalità non annotate; (iii) conduciamo ampi esperimenti su varie modalità, illustrando che il nostro motore di dati può sintetizzare efficacemente campioni di addestramento ed estendere la segmentazione RM verso modalità non annotate.
English
Medical image segmentation has recently demonstrated impressive progress with deep neural networks, yet the heterogeneous modalities and scarcity of mask annotations limit the development of segmentation models on unannotated modalities. This paper investigates a new paradigm for leveraging generative models in medical applications: controllably synthesizing data for unannotated modalities, without requiring registered data pairs. Specifically, we make the following contributions in this paper: (i) we collect and curate a large-scale radiology image-text dataset, MedGen-1M, comprising modality labels, attributes, region, and organ information, along with a subset of organ mask annotations, to support research in controllable medical image generation; (ii) we propose a diffusion-based data engine, termed MRGen, which enables generation conditioned on text prompts and masks, synthesizing MR images for diverse modalities lacking mask annotations, to train segmentation models on unannotated modalities; (iii) we conduct extensive experiments across various modalities, illustrating that our data engine can effectively synthesize training samples and extend MRI segmentation towards unannotated modalities.

Summary

AI-Generated Summary

PDF52December 6, 2024