Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/59766
Full metadata record
DC FieldValueLanguage
dc.contributor.authorAndrenko, K. V.-
dc.contributor.authorKroshchanka, A. A.-
dc.contributor.authorGolovko, O. V.-
dc.coverage.spatialМинскen_US
dc.date.accessioned2025-05-07T06:23:25Z-
dc.date.available2025-05-07T06:23:25Z-
dc.date.issued2025-
dc.identifier.citationAndrenko, K. V. The use of distilled large language models to determine the sentiment of a text = Использование дистиллированных больших языковых моделей для определения тональности текста / K. V Andrenko, A. A. Kroshchanka, O. V. Golovko // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS) : сборник научных трудов / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. В. Голенков [и др.]. – Минск, 2025. – Вып. 9. – С. 229–234.en_US
dc.identifier.urihttps://libeldoc.bsuir.by/handle/123456789/59766-
dc.description.abstractThis paper describes a distilled T5-large Transformer-based model for text sentiment analysis optimised for educational applications. The model, created by transferring knowledge from Large Language Models, demonstrates an accuracy of 97.22% on a test sample with a significant reduction in computational requirements. The distillation process, training methodology and experimental results are described. Application scenarios in educational contexts including adaptive learning and personalisation of feedback are proposed. The study shows promise for the use of distilled Large Language Models in resource-limited educational technologies.en_US
dc.language.isoenen_US
dc.publisherБГУИРen_US
dc.subjectматериалы конференцийen_US
dc.subjectsentiment detectionen_US
dc.subjectknowledge distillationen_US
dc.subjectlinguodidacticsen_US
dc.titleThe use of distilled large language models to determine the sentiment of a texten_US
dc.title.alternativeИспользование дистиллированных больших языковых моделей для определения тональности текстаen_US
dc.typeArticleen_US
local.description.annotationВ статье описана дистиллированная модель на основе трансформера T5-large для анализа тональности текста, оптимизированная для образовательных приложений. Модель, созданная путем передачи знаний от больших языковых моделей, демонстрирует точность 97.22% на тестовой выборке при значительном снижении вычислительных требований. Описан процесс дистилляции, методология обучения и результаты экспериментов. Предложены сценарии применения в образовательном контексте, включая адаптивное обучение и персонализацию обратной связи. Исследование показывает перспективность использования дистиллированных больших языковых моделей в образовательных технологиях с ограниченными ресурсами.en_US
Appears in Collections:OSTIS-2025

Files in This Item:
File Description SizeFormat 
Andreenko_The_Use.pdf99.6 kBAdobe PDFView/Open
Show simple item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.