| DC Field | Value | Language |
| dc.contributor.author | Субботенко, О. Р. | - |
| dc.contributor.author | Вашкевич, М. И. | - |
| dc.coverage.spatial | Минск | en_US |
| dc.date.accessioned | 2026-05-12T06:30:20Z | - |
| dc.date.available | 2026-05-12T06:30:20Z | - |
| dc.date.issued | 2026 | - |
| dc.date.submitted | 2026 | - |
| dc.identifier.citation | Субботенко, О. Р. Аппаратная реализация двухслойной нейронной сети на базе FPGA: анализ эффективности применения функций активации ReLU и LeakyReLU = Hardware implementation of a two-layer neural network based on FPGA: analysis of the efficiency of using ReLU and LeakyReLU activation functions / О. Р. Субботенко, М. И. Вашкевич // Доклады БГУИР. – 2026. – Т. 24, № 2. – С. 69–78. | en_US |
| dc.identifier.uri | https://libeldoc.bsuir.by/handle/123456789/63657 | - |
| dc.description.abstract | Исследованы методы эффективной аппаратной реализации нейронных сетей на программируемых логических интегральных схемах типа FPGA. В качестве ключевого аспекта рассматривается влияние выбора функций активации на характеристики разрабатываемого устройства. Предложен подход к использованию функций активации, допускающих эффективную аппаратную реализацию, в частности, обосновано применение LeakyReLU как компромисса между вычислительной простотой и точностью классификации. Для апробации подхода разработана архитектура двухслойной сети прямого распространения,
выполнены оптимизация ее гиперпараметров и аппаратная реализация на плате PYNQ Z2. Проведен анализ влияния разрядности представления коэффициентов в формате с фиксированной запятой на точность
распознавания базы данных MNIST и на аппаратные затраты. Экспериментально определена оптимальная
разрядность дробной части (9 бит), обеспечивающая точность 95,27 % при экономном расходовании ресурсов программируемых логических интегральных схем. Дополнительно с использованием дивергенции
Кульбака – Лейблера оценено искажение распределения весов при квантовании, на основе чего построена
регрессионная модель для предсказания точности нейронной сети с квантованными коэффициентами. | en_US |
| dc.language.iso | ru | en_US |
| dc.publisher | БГУИР | en_US |
| dc.subject | доклады БГУИР | en_US |
| dc.subject | нейронные сети | en_US |
| dc.subject | распознавание рукописных цифр | en_US |
| dc.subject | полносвязные слои | en_US |
| dc.title | Аппаратная реализация двухслойной нейронной сети на базе FPGA: анализ эффективности применения функций активации ReLU и LeakyReLU | en_US |
| dc.title.alternative | Hardware implementation of a two-layer neural network based on FPGA: analysis of the efficiency of using ReLU and LeakyReLU activation functions | en_US |
| dc.identifier.DOI | http://dx.doi.org/10.35596/1729-7648-2026-24-2-69-78 | - |
| local.description.annotation | Methods for the efficient hardware implementation of neural networks on FPGA-type program mable
logic integrated circuits are investigated. A key aspect is the influence of the choice of activation functions
on the characteristics of the developed device. An approach to the use of activation functions that allow for effi
cient hardware implementation is proposed. In particular, the use of LeakyReLU as a compromise between com
putational simplicity and classification accuracy is justified. To test the approach, a two-layer feedforward network
architecture was developed, its hyperparameters were optimized, and hardware implementation was carried out
on a PYNQ Z2 board. An analysis of the impact of the bit depth of the coefficients in fixed-point format on the re
cognition accuracy of the MNIST database and on hardware costs is conducted. The optimal bit depth of the frac
tional part (9 bits) was experimentally determined, ensuring an accuracy of 95.27 % while economically using
the resources of programmable logic integrated circuits. Additionally, using the Kullback – Leibler divergence,
the distortion of the weight distribution during quantization was estimated, on the basis of which a regression
model was constructed to predict the accuracy of a neural network with quantized coefficients. | en_US |
| Appears in Collections: | Том 24, № 2
|