Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/60402
Title: Сегментация спутниковых изображений на основе сверточных нейронных сетей
Other Titles: Segmentation of satellite images based on convolutional neural networks
Authors: Ерофеев, В. С.
Keywords: материалы конференций;спутниковые изображения;сверточные нейронные сети;спутниковые данные
Issue Date: 2025
Publisher: БГУИР
Citation: Ерофеев, В. С. Сегментация спутниковых изображений на основе сверточных нейронных сетей = Segmentation of satellite images based on convolutional neural networks / В. С. Ерофеев // Компьютерные системы и сети : материалы 61-й научной конференции аспирантов, магистрантов и студентов, Минск, 22–26 апреля 2025 г. / Белорусский государственный университет информатики и радиоэлектроники. – Минск, 2025. – С. 44–48.
Abstract: В работе проводится сравнительный анализ архитектур сверточных нейронных сетей U-Net и Feature Pyramid Network применительно к задаче сегментации спутниковых изображений. Полученные результаты показывают, что обе архитектуры демонстрируют высокую точность сегментации, при этом U-Net обеспечивает лучшую детализацию мелких объектов, а Feature Pyramid Network – более устойчивую сегментацию объектов различного масштаба.
Alternative abstract: In the paper we compare the U-Net and Feature Pyramid Network convolutional neural network architectures for the satellite image segmentation. The results show that both architectures demonstrate high segmentation accuracy, with U-Net providing better detail of small objects and Feature Pyramid Network providing more stable segmentation of objects of different scales.
URI: https://libeldoc.bsuir.by/handle/123456789/60402
Appears in Collections:Компьютерные системы и сети : материалы 61-й научной конференции аспирантов, магистрантов и студентов : сборник статей (2025)

Files in This Item:
File Description SizeFormat 
Erofeev_Segmentaciya.pdf1.03 MBAdobe PDFView/Open
Show full item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.