Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/63657
Full metadata record
DC FieldValueLanguage
dc.contributor.authorСубботенко, О. Р.-
dc.contributor.authorВашкевич, М. И.-
dc.coverage.spatialМинскen_US
dc.date.accessioned2026-05-12T06:30:20Z-
dc.date.available2026-05-12T06:30:20Z-
dc.date.issued2026-
dc.date.submitted2026-
dc.identifier.citationСубботенко, О. Р. Аппаратная реализация двухслойной нейронной сети на базе FPGA: анализ эффективности применения функций активации ReLU и LeakyReLU = Hardware implementation of a two-layer neural network based on FPGA: analysis of the efficiency of using ReLU and LeakyReLU activation functions / О. Р. Субботенко, М. И. Вашкевич // Доклады БГУИР. – 2026. – Т. 24, № 2. – С. 69–78.en_US
dc.identifier.urihttps://libeldoc.bsuir.by/handle/123456789/63657-
dc.description.abstractИсследованы методы эффективной аппаратной реализации нейронных сетей на программируемых логических интегральных схемах типа FPGA. В качестве ключевого аспекта рассматривается влияние выбора функций активации на характеристики разрабатываемого устройства. Предложен подход к использованию функций активации, допускающих эффективную аппаратную реализацию, в частности, обосновано применение LeakyReLU как компромисса между вычислительной простотой и точностью классификации. Для апробации подхода разработана архитектура двухслойной сети прямого распространения, выполнены оптимизация ее гиперпараметров и аппаратная реализация на плате PYNQ Z2. Проведен анализ влияния разрядности представления коэффициентов в формате с фиксированной запятой на точность распознавания базы данных MNIST и на аппаратные затраты. Экспериментально определена оптимальная разрядность дробной части (9 бит), обеспечивающая точность 95,27 % при экономном расходовании ресурсов программируемых логических интегральных схем. Дополнительно с использованием дивергенции Кульбака – Лейблера оценено искажение распределения весов при квантовании, на основе чего построена регрессионная модель для предсказания точности нейронной сети с квантованными коэффициентами.en_US
dc.language.isoruen_US
dc.publisherБГУИРen_US
dc.subjectдоклады БГУИРen_US
dc.subjectнейронные сетиen_US
dc.subjectраспознавание рукописных цифрen_US
dc.subjectполносвязные слоиen_US
dc.titleАппаратная реализация двухслойной нейронной сети на базе FPGA: анализ эффективности применения функций активации ReLU и LeakyReLUen_US
dc.title.alternativeHardware implementation of a two-layer neural network based on FPGA: analysis of the efficiency of using ReLU and LeakyReLU activation functionsen_US
dc.identifier.DOIhttp://dx.doi.org/10.35596/1729-7648-2026-24-2-69-78-
local.description.annotationMethods for the efficient hardware implementation of neural networks on FPGA-type program mable logic integrated circuits are investigated. A key aspect is the influence of the choice of activation functions on the characteristics of the developed device. An approach to the use of activation functions that allow for effi cient hardware implementation is proposed. In particular, the use of LeakyReLU as a compromise between com putational simplicity and classification accuracy is justified. To test the approach, a two-layer feedforward network architecture was developed, its hyperparameters were optimized, and hardware implementation was carried out on a PYNQ Z2 board. An analysis of the impact of the bit depth of the coefficients in fixed-point format on the re cognition accuracy of the MNIST database and on hardware costs is conducted. The optimal bit depth of the frac tional part (9 bits) was experimentally determined, ensuring an accuracy of 95.27 % while economically using the resources of programmable logic integrated circuits. Additionally, using the Kullback – Leibler divergence, the distortion of the weight distribution during quantization was estimated, on the basis of which a regression model was constructed to predict the accuracy of a neural network with quantized coefficients.en_US
Appears in Collections:Том 24, № 2

Files in This Item:
File Description SizeFormat 
Subbotenko_Apparatnaya.pdf899.32 kBAdobe PDFView/Open
Show simple item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.