ChatPaper.aiChatPaper

Диагностика тяжести COVID-19 по изображениям грудной клетки с использованием архитектур ViT и CNN

Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures

February 23, 2025
Авторы: Luis Lara, Lucia Eve Berger, Rajesh Raju, Shawn Whitfield
cs.AI

Аннотация

Пандемия COVID-19 нагрузила ресурсы здравоохранения и вызвала обсуждение о том, как машинное обучение может облегчить бремя врачей и способствовать диагностике. Рентгенографии грудной клетки (CXR) используются для диагностики COVID-19, но немногие исследования предсказывают тяжесть состояния пациента по CXR. В данном исследовании мы создаем большой набор данных о тяжести COVID, объединяя три источника, и исследуем эффективность трансферного обучения с использованием моделей, предобученных на ImageNet и CXR, а также видовых трансформеров (ViTs) как в задачах регрессии тяжести, так и классификации. Предобученная модель DenseNet161 показала лучшие результаты в задаче предсказания тяжести по трем классам, достигнув общей точности 80% и 77,3%, 83,9% и 70% для легких, умеренных и тяжелых случаев соответственно. ViT продемонстрировал лучшие результаты в регрессии, средняя абсолютная ошибка составила 0,5676 по сравнению с предсказанными радиологами баллами тяжести. Исходный код проекта доступен публично.
English
The COVID-19 pandemic strained healthcare resources and prompted discussion about how machine learning can alleviate physician burdens and contribute to diagnosis. Chest x-rays (CXRs) are used for diagnosis of COVID-19, but few studies predict the severity of a patient's condition from CXRs. In this study, we produce a large COVID severity dataset by merging three sources and investigate the efficacy of transfer learning using ImageNet- and CXR-pretrained models and vision transformers (ViTs) in both severity regression and classification tasks. A pretrained DenseNet161 model performed the best on the three class severity prediction problem, reaching 80% accuracy overall and 77.3%, 83.9%, and 70% on mild, moderate and severe cases, respectively. The ViT had the best regression results, with a mean absolute error of 0.5676 compared to radiologist-predicted severity scores. The project's source code is publicly available.

Summary

AI-Generated Summary

PDF12February 25, 2025