Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/54881
Full metadata record
DC FieldValueLanguage
dc.contributor.authorДемидова, Л. А.-
dc.contributor.authorМорошкин, Н. А.-
dc.coverage.spatialМинскen_US
dc.date.accessioned2024-03-21T12:47:50Z-
dc.date.available2024-03-21T12:47:50Z-
dc.date.issued2024-
dc.identifier.citationДемидова, Л. А. С Обучение вопросно-ответной нейросетевой модели на базе архитектуры модели LLaVA 1.5 с энкодером Saiga Mistral 7b и алгоритма низкоранговой адаптации LoRA = Training a question and answering neural network model based on LLaVA 1.5 model architecture with Saiga Mistral 7b encoder and low-rank adaptation algorithm LoRA / Л. А. Демидова, Н. А. Морошкин // BIG DATA и анализ высокого уровня = BIG DATA and Advanced Analytics : сборник научных статей X Международной научно-практической конференции, Минск, 13 марта 2024 г. : в 2 ч. Ч. 2 / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. А. Богуш [и др.]. – Минск, 2024. – С. 401–407.en_US
dc.identifier.urihttps://libeldoc.bsuir.by/handle/123456789/54881-
dc.description.abstractВ данной работе реализован алгоритм обучения визуальной вопросно-ответной нейросетевой модели на базе архитектуры нейросетевой модели LLaVA 1.5 с использованием текстового энкодера Mistral 7b, позволяющего улучшить результаты работы модели в задаче визуального вопросно- ответного моделирования и алгоритма низкоранговой адаптации LoRA, позволяющего ускорить процесс обучения модели. Показано, что задача вопросно-ответного моделирования может быть решена нейросетевыми моделями с использованием больших языковых моделей, описана методика ускорения обучения таких моделей. Проведена оценка эффективности разработанной модели и показаны общие аспекты обучения вопросно-ответных моделей на наиболее популярных вопросно-ответных наборах данных.en_US
dc.language.isoruen_US
dc.publisherБГУИРen_US
dc.subjectматериалы конференцийen_US
dc.subjectнейросетевые моделиen_US
dc.subjectвопросно-ответное моделированиеen_US
dc.subjectтехнология LoRAen_US
dc.titleОбучение вопросно-ответной нейросетевой модели на базе архитектуры модели LLaVA 1.5 с энкодером Saiga Mistral 7b и алгоритма низкоранговой адаптации LoRAen_US
dc.title.alternativeTraining a question and answering neural network model based on LLaVA 1.5 model architecture with Saiga Mistral 7b encoder and low-rank adaptation algorithm LoRAen_US
dc.typeArticleen_US
local.description.annotationIn this work, a training algorithm for a visual question-answer neural network model is implemented based on the structure of the LLaVA 1.5 neural network model using the Mistral 7b text encoder, which allows improving the model’s performance in the task of visual question-answer modeling and the LoRA low-rank adaptation algorithm, which speeds up the model learning process . It is shown that the problem of question-answer modeling can be solved by neural network models using large language models, and a technique for accelerating the training of such models is described. The effectiveness of the algorithmic model is assessed and general aspects of training question-answer models on the most popular sets of question-answer data are shown.en_US
Appears in Collections:BIG DATA and Advanced Analytics = BIG DATA и анализ высокого уровня : сборник научных статей : в 2 ч. (2024)

Files in This Item:
File Description SizeFormat 
Demidova_Training.pdf1.32 MBAdobe PDFView/Open
Show simple item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.