| DC Field | Value | Language |
| dc.contributor.author | Асенчик, О. Д. | - |
| dc.coverage.spatial | Минск | en_US |
| dc.date.accessioned | 2026-01-15T07:26:03Z | - |
| dc.date.available | 2026-01-15T07:26:03Z | - |
| dc.date.issued | 2025 | - |
| dc.identifier.citation | Асенчик, О. Д. Использование больших языковых моделей для создания учебных материалов по дисциплине «Базы данных» = Using large language models to create educational materials for the “Databases” discipline / О. Д. Асенчик // Цифровая трансформация. – 2025. – Т. 31, № 4. – С. 5–14. | en_US |
| dc.identifier.uri | https://libeldoc.bsuir.by/handle/123456789/62725 | - |
| dc.description.abstract | Рассмотрена проблема использования больших языковых моделей (LLM) для создания учебных материалов. Предложена и верифицирована практическая методика с целью генерации качественного
учебного контента для конкретной дисциплины «Базы данных». Представлена многоступенчатая методика, в которой одна LLM генерирует контент, а вторая, независимая «рассуждающая» модель, верифицирует
его на предмет качества и корректности. Для проверки сгенерированных материалов на отсутствие фактических ошибок применялись метод сравнения с авторитетным источником и модифицированный алгоритм
«цепочки верификаций». Результаты подтверждают, что данный подход при использовании современных
производительных LLM (таких как DeepSeek, Gemini) позволяет создавать высококачественные учебные
тексты с низкой вероятностью появления галлюцинаций. Методика способна значительно ускорить разработку надежных учебно-методических материалов и может быть оптимизирована путем сокращения числа
итераций при высоком качестве первоначального ответа. | en_US |
| dc.language.iso | ru | en_US |
| dc.publisher | БГУИР | en_US |
| dc.subject | цифровая трансформация | en_US |
| dc.subject | учебные материалы | - |
| dc.subject | большие языковые модели | - |
| dc.title | Использование больших языковых моделей для создания учебных материалов по дисциплине «Базы данных» | en_US |
| dc.title.alternative | Using large language models to create educational materials for the “Databases” discipline | en_US |
| dc.type | Article | en_US |
| dc.identifier.DOI | http://dx.doi.org/10.35596/1729-7648-2025-31-4-5-14 | - |
| local.description.annotation | This paper examines the use of large language models (LLM) for creating educational materials. A prac tical methodology for generating high-quality educational content for the specific discipline of “Databases” is proposed and verified. A multi-stage methodology is presented, in which one LLM generates content, and a second,
independent “reasoning” model verifies its quality and correctness. A comparison method with an authoritative
source and a modified “verification chain” algorithm was used to check the generated materials for factual errors.
The results confirm that this approach, when used with modern, high-performance LLMs (such as DeepSeek
and Gemini), enables the creation of high-quality educational texts with a low probability of hallucinations. The
methodology can significantly accelerate the development of reliable educational materials and can be optimized
by reducing the number of iterations while maintaining a high-quality initial response. | en_US |
| Appears in Collections: | Том 31, № 4
|