Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/60354
Title: Зависимость распределения входных и выходных данных в многоуровневых генеративно-состязательных сетях
Other Titles: Dependence of the distribution of input and output data in multi-level generative adversarial networks
Authors: Ковбаса, Г. А.
Keywords: материалы конференций;нейронные сети;распределение данных;генеративно-состязательные сети;машинное обучение
Issue Date: 2025
Publisher: БГУИР
Citation: Ковбаса, Г. А. Зависимость распределения входных и выходных данных в многоуровневых генеративно-состязательных сетях = Dependence of the distribution of input and output data in multi-level generative adversarial networks / Г. А. Ковбаса // Компьютерные системы и сети : материалы 61-й научной конференции аспирантов, магистрантов и студентов, Минск, 22–26 апреля 2025 г. / Белорусский государственный университет информатики и радиоэлектроники. – Минск, 2025. – C. 598–601.
Abstract: Многоуровневые генеративные состязательные сети (multi-level GANs) позволяют поэтапно улучшать сгенерированные данные. Однако выход каждого уровня ГАН формирует промежуточное распределение, зависящее от исходной обучающей выборки. Ошибки или искажения в этих промежуточных распределениях могут усиливаться на последующих этапах, что приводит к деградации качества и разнообразия результатов. В данной статье рассматривается влияние формы и качества исходной выборки на распределения выходов нейросетей в многоуровневых ГАН, а также предлагаются методы компенсации каскадного искажения данных. Показано, что использование U-Net способствует сохранению локальных зависимостей и уменьшению искажения распределений, повышению реалистичности изображения, но в свою очередь сужает область распределения данных и разнообразие выходной выборки.
Alternative abstract: Multi-level Generative Adversarial Networks (GANs) refine data generation across sequential stages, where each level forms an intermediate distribution influenced by the original dataset. Distortions in these distributions may accumulate, reducing the final output's quality and diversity. This article examines how the structure and quality of training data affect these intermediate outputs and suggests techniques to mitigate cascading distortion. The use of U-Net-based architectures is shown to preserve local features and enhance realism by stabilizing distribution shifts. However, this approach can also limit the distribution domain, reducing the variety of generated data.
URI: https://libeldoc.bsuir.by/handle/123456789/60354
Appears in Collections:Компьютерные системы и сети : материалы 61-й научной конференции аспирантов, магистрантов и студентов : сборник статей (2025)

Files in This Item:
File Description SizeFormat 
Kovbasa_Zavisimost.pdf877.79 kBAdobe PDFView/Open
Show full item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.