Диагностика тяжести COVID-19 по изображениям грудной клетки с использованием архитектур ViT и CNN
Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures
February 23, 2025
Авторы: Luis Lara, Lucia Eve Berger, Rajesh Raju, Shawn Whitfield
cs.AI
Аннотация
Пандемия COVID-19 нагрузила ресурсы здравоохранения и вызвала обсуждение о том, как машинное обучение может облегчить бремя врачей и способствовать диагностике. Рентгенографии грудной клетки (CXR) используются для диагностики COVID-19, но немногие исследования предсказывают тяжесть состояния пациента по CXR. В данном исследовании мы создаем большой набор данных о тяжести COVID, объединяя три источника, и исследуем эффективность трансферного обучения с использованием моделей, предобученных на ImageNet и CXR, а также видовых трансформеров (ViTs) как в задачах регрессии тяжести, так и классификации. Предобученная модель DenseNet161 показала лучшие результаты в задаче предсказания тяжести по трем классам, достигнув общей точности 80% и 77,3%, 83,9% и 70% для легких, умеренных и тяжелых случаев соответственно. ViT продемонстрировал лучшие результаты в регрессии, средняя абсолютная ошибка составила 0,5676 по сравнению с предсказанными радиологами баллами тяжести. Исходный код проекта доступен публично.
English
The COVID-19 pandemic strained healthcare resources and prompted discussion
about how machine learning can alleviate physician burdens and contribute to
diagnosis. Chest x-rays (CXRs) are used for diagnosis of COVID-19, but few
studies predict the severity of a patient's condition from CXRs. In this study,
we produce a large COVID severity dataset by merging three sources and
investigate the efficacy of transfer learning using ImageNet- and
CXR-pretrained models and vision transformers (ViTs) in both severity
regression and classification tasks. A pretrained DenseNet161 model performed
the best on the three class severity prediction problem, reaching 80% accuracy
overall and 77.3%, 83.9%, and 70% on mild, moderate and severe cases,
respectively. The ViT had the best regression results, with a mean absolute
error of 0.5676 compared to radiologist-predicted severity scores. The
project's source code is publicly available.Summary
AI-Generated Summary