Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/48739
Title: Влияние гиперпараметров нейронной сети на её численную обусловленность
Other Titles: Influence of the Neural Network Hyperparameters on its Numerical Conditioning
Authors: Шолтанюк, С. В.
Keywords: цифровая трансформация;временные ряды;нейронные сети;перспептроны
Issue Date: 2020
Publisher: ГИАЦ
Citation: Шолтанюк, С. В. Влияние гиперпараметров нейронной сети на её численную обусловленность = Influence of the Neural Network Hyperparameters on its Numerical Conditioning / Шолтанюк С. В. // Цифровая трансформация. – 2020. – № 1(10). – С. 43–50. – DOI : . https://doi.org/10.38086/2522-9613-2020-1-43-50.
Abstract: В данной работе рассмотрена задача оценивания численной обусловленности многослойного персептрона, прогнозирующего временные ряды методом скользящего окна. Рассмотрена работа прогностического персептрона при различных наборах гиперпараметров, в частности, при различном количестве нейронов на разных слоях нейронной сети, а также при использовании тех или иных функций активации. Выявлены основные факторы, влияющие на обусловленность нейронной сети, а также особенности её работы при различных функциях активации. Предложены формулы для оценки чисел обусловленности отдельных компонентов прогностического персептрона и самой нейронной сети в целом. Проведён сравнительный анализ результатов обучения прогностического персептрона при различных гиперпараметрах на примере смоделированных временных рядов. Сформулированы условия, обеспечивающие лучшую устойчивость и обусловленность нейронной сети.
Alternative abstract: In this paper, the task of assessment of numerical conditioning of multilayer perceptron, forecasting time series with sliding window method, has been considered. Performance of the forecasting perceptron with various hyperparameters sets, with different amount of neurons and various activation functions in particular, has been considered. Main factors, influencing on the neural net conditioning, have been revealed, as well as performance features, when using various activation functions. Formulas for assessment of condition numbers of individual components of the forecasting perceptron and of the neural network itself have been proposed. Comparative analysis of results of training the forecasting perceptron with various hyperparameters on modeled time series has been performed. Conditions, providing the best stability and conditioning for the neural network, have been formulated.
URI: https://libeldoc.bsuir.by/handle/123456789/48739
Appears in Collections:№ 1(10)

Files in This Item:
File Description SizeFormat 
Sholtanyuk_Vliyaniye.pdf571.61 kBAdobe PDFView/Open
Show full item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.