Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/59750
Title: The Efficiency of FedAVG Federated Learning in Training Generative Image Models
Other Titles: Оценка эффективности технологии FedAVG при федеративном обучении генеративных нейронных сетей
Authors: Kovalev, V.
Karpenka, D.
Keywords: материалы конференций;federated learning;generative models;neural networks
Issue Date: 2025
Publisher: БГУИР
Citation: Kovalev, V. The Efficiency of FedAVG Federated Learning in Training Generative Image Models = Оценка эффективности технологии FedAVG при федеративном обучении генеративных нейронных сетей / V. Kovalev, D. Karpenka // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS) : сборник научных трудов / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. В. Голенков [и др.]. – Минск, 2025. – Вып. 9. – С. 315–320.
Abstract: Training neural networks often requires very large amounts of image data. However, sharing images owned by different institutions can be problematic. One of the known solutions could be to train neural networks jointly by way of iterative sharing neural models, but not the restricted sets of training images. Such an approach is known as Federated Learning. In this paper, we present results of an experimental study of the efficiency of Federated Learning of generative neural networks of the DCGAN type. Specifically, the FedAVG approach has been investigated based on large collection of medical images, including chest x-ray images, axial slices of 3D computed tomography images, and Hematoxylin-Eosin stained histology images. The results of the FedAVG approach were found to be highly dependent on the homogeneity of the image datasets. Among the images being employed, the best potential for federated training was demonstrated by chest x-ray images, while the routine histology images were found to be unsuitable for FedAVG training. The 2D computed tomography image slices were situated somewhere in-between of these two image types and showed characteristically unstable behavior. The period of aggregation of training results on the federated server should be reasonably short and repeated after every 1-3 epochs performed on the local image datasets of federated clients.
Alternative abstract: Цель данной статьи – представить результаты экспериментального исследования эффективности федеративного обучения генеративных нейронных сетей типа DC-GAN. В качестве основы федеративного обучения был выбран подход FedAVG, который был исследован на больших наборах медицинских изображений, включающем рентгеновские снимки грудной клетки, аксиальные срезы трехмерных компьютерных томограмм, а также гистологические изображения, окрашенные гематоксилином-эозином. Было установлено, что результаты подхода FedAVG сильно зависят от однородности наборов изображений. Среди рассматриваемых изображений наилучший потенциал для федеративного обучения продемонстрировали рентгеновские снимки грудной клетки, в то время как типичные гистологические снимки, окрашенные гематоксилиномэозином, оказались непригодными для обучения методом FedAVG. В этом отношении, 2D слои компьютернотомографических изображений оказались где-то между указанными двумя классами. При этом процесс обучения генеративной нейронной сети на томографических изображениях отличался значительной нестабильностью при переходе от эпохи к эпохе. Установлено, что период агрегирования частных результатов обучения на стороне федеративного сервера должен быть достаточно коротким, порядка 1 раз в течении 1-3 эпох тренировки участниками федеративного обучения их копий нейронных сетей на локальных наборах изображений.
URI: https://libeldoc.bsuir.by/handle/123456789/59750
Appears in Collections:OSTIS-2025

Files in This Item:
File Description SizeFormat 
Kovalev_The_еfficiency.pdf269.71 kBAdobe PDFView/Open
Show full item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.