Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/56417
Title: Effective Algorithm for Biomedical Image Segmentation
Other Titles: Эффективный алгоритм сегментации биомедицинских изображений
Authors: Di Zhao
Yi Tang
Gourinovitch, A. B.
Keywords: доклады БГУИР;biomedical image segmentation;convolution neural network;feature aware module;attention mechanism;U-shaped network
Issue Date: 2024
Publisher: БГУИР
Citation: Di Zhao. Effective Algorithm for Biomedical Image Segmentation = Эффективный алгоритм сегментации биомедицинских изображений / Di Zhao, Yi Tang, A. B. Gourinovitch // Доклады БГУИР. – 2024. – Т. 22, № 3. – С. 84–92.
Abstract: Biomedical image segmentation plays an important role in quantitative analysis, clinical diagnosis, and medical manipulation. Objects in medical images have different scales, types, complex backgrounds, and similar tissue appearances, making information extraction challenging. To solve this problem, a module is proposed that takes into account the features of images, which will improve the biomedical image segmentation network FE-Net. An integral part of the FE-Net algorithm is the connection skipping mechanism, which ensures the connection and fusion of feature maps from different layers in the encoder and decoder. Features at the encoder level are combined with high-level semantic knowledge at the decoder level. The algorithm establishes connections between feature maps, which is used in medicine for image processing. The proposed method is tested on three public datasets: Kvasir-SEG, CVC-ClinicDB and 2018 Data Science Bowl. Based on the results of the study, it was found that FE-Net demonstrates better performance compared to other methods in terms of Intersection over Union and F1-score. The network under consideration copes more effectively with segmentation details and object boundaries, while maintaining high accuracy. The study was conducted jointly with the Department of Magnetic Resonance Imaging of the N. N. Alexandrov National Oncology Center. Access to the source code of the algorithm and additional technical details is available at https://github.com/tyjcbzd/FE-Net.
Alternative abstract: Сегментация биомедицинских изображений играет важную роль в количественном анализе, клинической диагностике и медицинских манипуляциях. Объекты на медицинских изображениях имеют различный масштаб, тип, сложный фон и схожий внешний вид тканей, что усложняет извлечение информации. Для решения данной проблемы предлагается модуль, учитывающий особенности изображений, что позволит усовершенствовать биомедицинскую сеть сегментации изображений FE-Net. Неотъемлемая часть алгоритма FE-Net - механизм пропуска соединений, обеспечивающий соединение и объединение карт признаков из различных слоев в кодере и декодере. Признаки на уровне кодера комбинируются с высокоуровневыми семантическими знаниями на уровне декодера. Алгоритм устанавливает связи между картами признаков, что используется в медицине для обработки изображений. Предлагаемый метод протестирован на трех общедоступных наборах данных: Kvasir-SEG, CVC-ClinicDB и 2018 Data Science Bowl. По результатам исследования установлено, что FE-Net демонстрирует лучшую производительность по сравнению с другими методами по показателям Intersection over Union и F l-оценки. Рассматриваемая сеть эффективнее справляется с деталями сегментации и границами объектов, сохраняя при этом высокую точность. Исследование проведено совместно с отделением магнитно-резонансной томографии Национального онкологического центра имени Н. Н. Александрова. Доступ к исходному коду алгоритма и дополнительным техническим деталям размещен по ссылке https://github.com/tyjcbzd/FE-Net.
URI: https://libeldoc.bsuir.by/handle/123456789/56417
DOI: http://dx.doi.org/10.35596/1729-7648-2024-22-3-84-92
Appears in Collections:Том 22, № 3

Files in This Item:
File Description SizeFormat 
Di_Zhao_Effective.pdf7.15 MBAdobe PDFView/Open
Show full item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.