Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/62725
Title: Использование больших языковых моделей для создания учебных материалов по дисциплине «Базы данных»
Other Titles: Using large language models to create educational materials for the “Databases” discipline
Authors: Асенчик, О. Д.
Keywords: цифровая трансформация;учебные материалы;большие языковые модели
Issue Date: 2025
Publisher: БГУИР
Citation: Асенчик, О. Д. Использование больших языковых моделей для создания учебных материалов по дисциплине «Базы данных» = Using large language models to create educational materials for the “Databases” discipline / О. Д. Асенчик // Цифровая трансформация. – 2025. – Т. 31, № 4. – С. 5–14.
Abstract: Рассмотрена проблема использования больших языковых моделей (LLM) для создания учебных материалов. Предложена и верифицирована практическая методика с целью генерации качественного учебного контента для конкретной дисциплины «Базы данных». Представлена многоступенчатая методика, в которой одна LLM генерирует контент, а вторая, независимая «рассуждающая» модель, верифицирует его на предмет качества и корректности. Для проверки сгенерированных материалов на отсутствие фактических ошибок применялись метод сравнения с авторитетным источником и модифицированный алгоритм «цепочки верификаций». Результаты подтверждают, что данный подход при использовании современных производительных LLM (таких как DeepSeek, Gemini) позволяет создавать высококачественные учебные тексты с низкой вероятностью появления галлюцинаций. Методика способна значительно ускорить разработку надежных учебно-методических материалов и может быть оптимизирована путем сокращения числа итераций при высоком качестве первоначального ответа.
Alternative abstract: This paper examines the use of large language models (LLM) for creating educational materials. A prac tical methodology for generating high-quality educational content for the specific discipline of “Databases” is proposed and verified. A multi-stage methodology is presented, in which one LLM generates content, and a second, independent “reasoning” model verifies its quality and correctness. A comparison method with an authoritative source and a modified “verification chain” algorithm was used to check the generated materials for factual errors. The results confirm that this approach, when used with modern, high-performance LLMs (such as DeepSeek and Gemini), enables the creation of high-quality educational texts with a low probability of hallucinations. The methodology can significantly accelerate the development of reliable educational materials and can be optimized by reducing the number of iterations while maintaining a high-quality initial response.
URI: https://libeldoc.bsuir.by/handle/123456789/62725
DOI: http://dx.doi.org/10.35596/1729-7648-2025-31-4-5-14
Appears in Collections:Том 31, № 4

Files in This Item:
File Description SizeFormat 
Asenchik_Ispol'zovanie.pdf480.94 kBAdobe PDFView/Open
Show full item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.