DC Field | Value | Language |
dc.contributor.author | Andrenko, K. V. | - |
dc.contributor.author | Kroshchanka, A. A. | - |
dc.contributor.author | Golovko, O. V. | - |
dc.coverage.spatial | Минск | en_US |
dc.date.accessioned | 2025-05-07T06:23:25Z | - |
dc.date.available | 2025-05-07T06:23:25Z | - |
dc.date.issued | 2025 | - |
dc.identifier.citation | Andrenko, K. V. The use of distilled large language models to determine the sentiment of a text = Использование дистиллированных больших языковых моделей для определения тональности текста / K. V Andrenko, A. A. Kroshchanka, O. V. Golovko // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS) : сборник научных трудов / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. В. Голенков [и др.]. – Минск, 2025. – Вып. 9. – С. 229–234. | en_US |
dc.identifier.uri | https://libeldoc.bsuir.by/handle/123456789/59766 | - |
dc.description.abstract | This paper describes a distilled T5-large
Transformer-based model for text sentiment analysis optimised for educational applications. The model, created
by transferring knowledge from Large Language Models, demonstrates an accuracy of 97.22% on a test sample with a significant reduction in computational requirements. The distillation process, training methodology and experimental results are described. Application scenarios in educational contexts including adaptive learning and personalisation of feedback are proposed. The study shows promise for the use of distilled Large Language Models in resource-limited educational technologies. | en_US |
dc.language.iso | en | en_US |
dc.publisher | БГУИР | en_US |
dc.subject | материалы конференций | en_US |
dc.subject | sentiment detection | en_US |
dc.subject | knowledge distillation | en_US |
dc.subject | linguodidactics | en_US |
dc.title | The use of distilled large language models to determine the sentiment of a text | en_US |
dc.title.alternative | Использование дистиллированных больших языковых моделей для определения тональности текста | en_US |
dc.type | Article | en_US |
local.description.annotation | В статье описана дистиллированная модель на основе трансформера T5-large для анализа тональности
текста, оптимизированная для образовательных приложений. Модель, созданная путем передачи знаний
от больших языковых моделей, демонстрирует точность 97.22% на тестовой выборке при значительном
снижении вычислительных требований. Описан процесс дистилляции, методология обучения и результаты экспериментов. Предложены сценарии применения в образовательном контексте, включая адаптивное обучение и персонализацию обратной связи. Исследование показывает перспективность использования дистиллированных больших языковых моделей в образовательных технологиях с ограниченными ресурсами. | en_US |
Appears in Collections: | OSTIS-2025
|