Title: | Зависимость распределения входных и выходных данных в многоуровневых генеративно-состязательных сетях |
Other Titles: | Dependence of the distribution of input and output data in multi-level generative adversarial networks |
Authors: | Ковбаса, Г. А. |
Keywords: | материалы конференций;нейронные сети;распределение данных;генеративно-состязательные сети;машинное обучение |
Issue Date: | 2025 |
Publisher: | БГУИР |
Citation: | Ковбаса, Г. А. Зависимость распределения входных и выходных данных в многоуровневых генеративно-состязательных сетях = Dependence of the distribution of input and output data in multi-level generative adversarial networks / Г. А. Ковбаса // Компьютерные системы и сети : материалы 61-й научной конференции аспирантов, магистрантов и студентов, Минск, 22–26 апреля 2025 г. / Белорусский государственный университет информатики и радиоэлектроники. – Минск, 2025. – C. 598–601. |
Abstract: | Многоуровневые генеративные состязательные сети (multi-level GANs) позволяют поэтапно улучшать сгенерированные
данные. Однако выход каждого уровня ГАН формирует промежуточное распределение, зависящее от исходной обучающей
выборки. Ошибки или искажения в этих промежуточных распределениях могут усиливаться на последующих этапах, что приводит к деградации качества и разнообразия результатов. В данной статье рассматривается влияние формы и качества исходной выборки на распределения выходов нейросетей в многоуровневых ГАН, а также предлагаются методы компенсации каскадного искажения данных. Показано, что использование U-Net способствует сохранению локальных зависимостей и уменьшению искажения распределений, повышению реалистичности изображения, но в свою очередь сужает область распределения данных и разнообразие выходной выборки. |
Alternative abstract: | Multi-level Generative Adversarial Networks (GANs) refine data generation across sequential stages, where each level forms an
intermediate distribution influenced by the original dataset. Distortions in these distributions may accumulate, reducing the final output's quality and diversity. This article examines how the structure and quality of training data affect these intermediate outputs and suggests techniques to mitigate cascading distortion. The use of U-Net-based architectures is shown to preserve local features and enhance realism by stabilizing distribution shifts. However, this approach can also limit the distribution domain, reducing the variety of generated data. |
URI: | https://libeldoc.bsuir.by/handle/123456789/60354 |
Appears in Collections: | Компьютерные системы и сети : материалы 61-й научной конференции аспирантов, магистрантов и студентов : сборник статей (2025)
|