Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/63657
Title: Аппаратная реализация двухслойной нейронной сети на базе FPGA: анализ эффективности применения функций активации ReLU и LeakyReLU
Other Titles: Hardware implementation of a two-layer neural network based on FPGA: analysis of the efficiency of using ReLU and LeakyReLU activation functions
Authors: Субботенко, О. Р.
Вашкевич, М. И.
Keywords: доклады БГУИР;нейронные сети;распознавание рукописных цифр;полносвязные слои
Issue Date: 2026
Publisher: БГУИР
Citation: Субботенко, О. Р. Аппаратная реализация двухслойной нейронной сети на базе FPGA: анализ эффективности применения функций активации ReLU и LeakyReLU = Hardware implementation of a two-layer neural network based on FPGA: analysis of the efficiency of using ReLU and LeakyReLU activation functions / О. Р. Субботенко, М. И. Вашкевич // Доклады БГУИР. – 2026. – Т. 24, № 2. – С. 69–78.
Abstract: Исследованы методы эффективной аппаратной реализации нейронных сетей на программируемых логических интегральных схемах типа FPGA. В качестве ключевого аспекта рассматривается влияние выбора функций активации на характеристики разрабатываемого устройства. Предложен подход к использованию функций активации, допускающих эффективную аппаратную реализацию, в частности, обосновано применение LeakyReLU как компромисса между вычислительной простотой и точностью классификации. Для апробации подхода разработана архитектура двухслойной сети прямого распространения, выполнены оптимизация ее гиперпараметров и аппаратная реализация на плате PYNQ Z2. Проведен анализ влияния разрядности представления коэффициентов в формате с фиксированной запятой на точность распознавания базы данных MNIST и на аппаратные затраты. Экспериментально определена оптимальная разрядность дробной части (9 бит), обеспечивающая точность 95,27 % при экономном расходовании ресурсов программируемых логических интегральных схем. Дополнительно с использованием дивергенции Кульбака – Лейблера оценено искажение распределения весов при квантовании, на основе чего построена регрессионная модель для предсказания точности нейронной сети с квантованными коэффициентами.
Alternative abstract: Methods for the efficient hardware implementation of neural networks on FPGA-type program mable logic integrated circuits are investigated. A key aspect is the influence of the choice of activation functions on the characteristics of the developed device. An approach to the use of activation functions that allow for effi cient hardware implementation is proposed. In particular, the use of LeakyReLU as a compromise between com putational simplicity and classification accuracy is justified. To test the approach, a two-layer feedforward network architecture was developed, its hyperparameters were optimized, and hardware implementation was carried out on a PYNQ Z2 board. An analysis of the impact of the bit depth of the coefficients in fixed-point format on the re cognition accuracy of the MNIST database and on hardware costs is conducted. The optimal bit depth of the frac tional part (9 bits) was experimentally determined, ensuring an accuracy of 95.27 % while economically using the resources of programmable logic integrated circuits. Additionally, using the Kullback – Leibler divergence, the distortion of the weight distribution during quantization was estimated, on the basis of which a regression model was constructed to predict the accuracy of a neural network with quantized coefficients.
URI: https://libeldoc.bsuir.by/handle/123456789/63657
DOI: http://dx.doi.org/10.35596/1729-7648-2026-24-2-69-78
Appears in Collections:Том 24, № 2

Files in This Item:
File Description SizeFormat 
Subbotenko_Apparatnaya.pdf899.32 kBAdobe PDFView/Open
Show full item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.