https://libeldoc.bsuir.by/handle/123456789/62700| Title: | Нейронные сети на основе обучаемого двумерного разделимого преобразования для классификации изображений: теория и аппаратная реализация на FPGA |
| Other Titles: | Neural networks based on a learnable two-dimensional separable transform for image classification: theory and hardware implementation on FPGA |
| Authors: | Кривальцевич, Е. А. Вашкевич, М. И. |
| Keywords: | публикации ученых;нейронные сети;интегральные схемы;распознавание изображений;базы данных |
| Issue Date: | 2025 |
| Publisher: | Объединенный институт проблем информатики НАН Беларуси |
| Citation: | Кривальцевич, Е. А. Нейронные сети на основе обучаемого двумерного разделимого преобразования для классификации изображений: теория и аппаратная реализация на FPGA = Neural networks based on a learnable two-dimensional separable transform for image classification: theory and hardware implementation on FPGA / Е. А. Кривальцевич, М. И. Вашкевич // Информатика. – 2025. – Т. 22, № 4. – С. 36–54. |
| Abstract: | Целями исследования являются разработка методов построения компактных и эффективных нейронных сетей для задач распознавания изображений, а также их аппаратная реализация на базе программируемых логических интегральных схем (ПЛИС) типа FPGA. Методы. Предложена концепция обучаемого двумерного разделимого преобразования (ОДРП) для построения нейронных сетей прямого распространения для задач распознавания изображений. Особенностью ОДРП является последовательная обработка строк изображения полносвязным слоем, после чего полученное представление обрабатывается по строкам вторым полносвязным слоем. В предлагаемой архитектуре нейронной сети прямого распространения ОДРП рассматривается как способ извлечения вектора признаков из исходного изображения. Аппаратная реализация нейронной сети на базе ОДРП основана на концепции вычисления «на месте» (общая память для хранения исходных и промежуточных данных), а также на использовании единого набора вычислительных ядер для расчета всех слоев нейронной сети. Результаты. Предложено семейство компактных нейросетевых архитектур LST-1, различающихся размерностью векторного представления изображения. Эксперименты по классификации рукописных цифр базы MNIST показали высокую эффективность данных моделей: сеть LST-1-28 достигает точности 98,37 % при 9,5 тыс. параметров, а более компактная LST-1-8 показывает 96,53 % точности при 1,1 тыс. параметров. Тестирование аппаратной реализации LST-1-28 подтверждает устойчивость архитектуры к ошибкам квантования параметров. Заключение. Предложенная концепция ОДРП обеспечивает проектирование компактных и эффективных нейросетевых архитектур, характеризующихся малым числом обучаемых параметров, высокой точностью распознавания и регулярной структурой алгоритма, что позволяет получать их эффективные реализации на базе ПЛИС. |
| Alternative abstract: | Development of methods for design compact and efficient neural networks for image recognition tasks, as well as their hardware implementation based on FPGA. Methods. The paper proposes the concept of a learnable two-dimensional separable transformation (LST) for designing feedforward neural networks for image recognition tasks. A feature of the LST is the sequential processing of image rows by a fully connected layer, after which the resulting representation is processed by columns using second fully connected layer. In the proposed architecture of a feedforward neural network, the LST is considered as a feature extractor. The hardware implementation of LST-based neural network is based on the concept of in-place computing (shared memory for storing source and intermediate data), as well as using a single set of computing cores to calculate all layers of the neural network. Results. A family of compact neural network architectures LST-1 is proposed, differing in the image embedding size. Experiments on the classification of MNIST handwritten digits have shown the high efficiency of these models: the LST-1-28 network achieves 98.37 % accuracy with 9.5 K parameters, and the more compact LST-1-8 shows 96.53 % accuracy with 1.1 K parameters. Testing of the LST-1-28 hardware implementation confirms the architecture's resistance to parameter quantization errors. Conclusion. The proposed concept of a learnable two-dimensional separable transformation provides the design of compact and efficient neural network architectures characterized by: a small number of learnable parameters, high recognition accuracy, and the regular structure of the algorithm, which makes it possible to obtain their effective implementations based on FPGAs. |
| URI: | https://libeldoc.bsuir.by/handle/123456789/62700 |
| DOI: | 10.37661/1816-0301-2025-22-4-36-54 |
| Appears in Collections: | Публикации в изданиях Республики Беларусь |
| File | Description | Size | Format | |
|---|---|---|---|---|
| Krivalcevich_Nejronnye_seti.pdf | 1.85 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.