https://libeldoc.bsuir.by/handle/123456789/63657| Title: | Аппаратная реализация двухслойной нейронной сети на базе FPGA: анализ эффективности применения функций активации ReLU и LeakyReLU |
| Other Titles: | Hardware implementation of a two-layer neural network based on FPGA: analysis of the efficiency of using ReLU and LeakyReLU activation functions |
| Authors: | Субботенко, О. Р. Вашкевич, М. И. |
| Keywords: | доклады БГУИР;нейронные сети;распознавание рукописных цифр;полносвязные слои |
| Issue Date: | 2026 |
| Publisher: | БГУИР |
| Citation: | Субботенко, О. Р. Аппаратная реализация двухслойной нейронной сети на базе FPGA: анализ эффективности применения функций активации ReLU и LeakyReLU = Hardware implementation of a two-layer neural network based on FPGA: analysis of the efficiency of using ReLU and LeakyReLU activation functions / О. Р. Субботенко, М. И. Вашкевич // Доклады БГУИР. – 2026. – Т. 24, № 2. – С. 69–78. |
| Abstract: | Исследованы методы эффективной аппаратной реализации нейронных сетей на программируемых логических интегральных схемах типа FPGA. В качестве ключевого аспекта рассматривается влияние выбора функций активации на характеристики разрабатываемого устройства. Предложен подход к использованию функций активации, допускающих эффективную аппаратную реализацию, в частности, обосновано применение LeakyReLU как компромисса между вычислительной простотой и точностью классификации. Для апробации подхода разработана архитектура двухслойной сети прямого распространения, выполнены оптимизация ее гиперпараметров и аппаратная реализация на плате PYNQ Z2. Проведен анализ влияния разрядности представления коэффициентов в формате с фиксированной запятой на точность распознавания базы данных MNIST и на аппаратные затраты. Экспериментально определена оптимальная разрядность дробной части (9 бит), обеспечивающая точность 95,27 % при экономном расходовании ресурсов программируемых логических интегральных схем. Дополнительно с использованием дивергенции Кульбака – Лейблера оценено искажение распределения весов при квантовании, на основе чего построена регрессионная модель для предсказания точности нейронной сети с квантованными коэффициентами. |
| Alternative abstract: | Methods for the efficient hardware implementation of neural networks on FPGA-type program mable logic integrated circuits are investigated. A key aspect is the influence of the choice of activation functions on the characteristics of the developed device. An approach to the use of activation functions that allow for effi cient hardware implementation is proposed. In particular, the use of LeakyReLU as a compromise between com putational simplicity and classification accuracy is justified. To test the approach, a two-layer feedforward network architecture was developed, its hyperparameters were optimized, and hardware implementation was carried out on a PYNQ Z2 board. An analysis of the impact of the bit depth of the coefficients in fixed-point format on the re cognition accuracy of the MNIST database and on hardware costs is conducted. The optimal bit depth of the frac tional part (9 bits) was experimentally determined, ensuring an accuracy of 95.27 % while economically using the resources of programmable logic integrated circuits. Additionally, using the Kullback – Leibler divergence, the distortion of the weight distribution during quantization was estimated, on the basis of which a regression model was constructed to predict the accuracy of a neural network with quantized coefficients. |
| URI: | https://libeldoc.bsuir.by/handle/123456789/63657 |
| DOI: | http://dx.doi.org/10.35596/1729-7648-2026-24-2-69-78 |
| Appears in Collections: | Том 24, № 2 |
| File | Description | Size | Format | |
|---|---|---|---|---|
| Subbotenko_Apparatnaya.pdf | 899.32 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.