Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/61988
Full metadata record
DC FieldValueLanguage
dc.date.accessioned2025-11-17T08:37:06Z-
dc.date.available2025-11-17T08:37:06Z-
dc.date.issued2025-
dc.identifier.citationЛукашевич, М. М. Методика расчета энергетической эффективности систем связи и вещания с помехоустойчивым блочным кодированием и многопозиционной модуляцией = Methodology for calculating the energy efficiency of communication and broadcasting systems with noise-immune block coding and multi-position modulation / М. М. Лукашевич, Е. Клицунова // Доклады БГУИР. – 2025. – Т. 23, № 5. – С. 66–74.en_US
dc.identifier.urihttps://libeldoc.bsuir.by/handle/123456789/61988-
dc.description.abstractРассмотрены методы работы с несбалансированными данными при построении моделей машинного обучения для решения задачи классификации. Проведено исследование методов балансировки с определением их влияния на эффективность классических и ансамблевых моделей. Выбраны пять наборов данных различного объема и степени дисбаланса, выполнена их предобработка. Изучено влияние реализованных в библиотеке imbalanced-learn методов увеличения меньшего класса, уменьшения большего класса как при изолированном применении, так и при их комбинации. Определен диапазон оптимального соотношения классов после балансировки (от 1:1 до 2:1, где первое число соотносится с количеством объектов изначально меньшего класса) и оценено влияние подбора гиперпараметров при помощи Optuna. Установлено, что оптимизация гиперпараметров не компенсирует отсутствие балансировки данных, а наилучшие показатели качества моделей достигаются применением комплексного подхода с комбинацией двух методов балансировок различных типов, использованием ансамбля и подбором гиперпараметров. Наибольший вклад в качество моделей дало применение одного метода балансировки вместе с использованием ансамбля, поэтому такую комбинацию можно рекомендовать в условиях ограниченных временных и вычислительных ресурсов. Добавление метода уменьшения большего класса и подбор гиперпараметров целесообразно проводить при достаточном количестве ресурсов и высоких требованиях к качеству модели.en_US
dc.language.isoruen_US
dc.publisherБГУИРen_US
dc.subjectдоклады БГУИРen_US
dc.subjectнесбалансированные данныеen_US
dc.subjectклассические моделиen_US
dc.subjectансамблиen_US
dc.subjectоптимизация гиперпараметровen_US
dc.titleМетодика расчета энергетической эффективности систем связи и вещания с помехоустойчивым блочным кодированием и многопозиционной модуляциейen_US
dc.title.alternativeMethodology for calculating the energy efficiency of communication and broadcasting systems with noise-immune block coding and multi-position modulationen_US
dc.identifier.DOIhttp://dx.doi.org/10.35596/1729-7648-2025-23-5-66-74-
local.description.annotationThis article examines methods for working with imbalanced data when building machine learning models for classification problems. Balancing methods are studied to determine their impact on the performance of classical and ensemble models. Five datasets of varying sizes and degrees of imbalance are selected and preprocessed. The impact of the imbalanced-learn library’s methods of increasing the smaller class and decreasing the larger class is studied, both when used separately and in combination. The optimal class ratio after balancing is determined (from 1:1 to 2:1, where the first number corresponds to the number of objects in the initially smaller class), and the impact of hyperparameter selection using Optuna is assessed. It is established that hyperparameter optimization does not compensate for the lack of data balancing, and the best model performance is achieved by using an integrated approach combining two different types of balancing methods, using an ensemble, and hyperparameter selection. The greatest impact on model quality was achieved by using a single balancing method in conjunction with ensemble modeling, so this combination is recommended for limited time and computational resources. Adding a larger class reduction method and hyperparameter tuning is advisable when resources are sufficient and model quality requirements are high.en_US
Appears in Collections:Том 23, № 5

Files in This Item:
File Description SizeFormat 
Lukashevich_Eksperimental'noe.pdf1.09 MBAdobe PDFView/Open
Show simple item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.