Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/45440
Full metadata record
DC FieldValueLanguage
dc.contributor.authorPolyakova, I.-
dc.contributor.authorPogoreltsev, S.-
dc.date.accessioned2021-09-21T11:50:14Z-
dc.date.available2021-09-21T11:50:14Z-
dc.date.issued2021-
dc.identifier.citationPolyakova, I. Extractive Russian Text Summarization as Greedy Sentence Sequence Continuation Search with Probabilities from Pretrained Language Models / I. Polyakova, S. Pogoreltsev // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS-2021) : сборник научных трудов / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. В. Голенков [и др.]. – Минск, 2021. – Вып. 5. – С. 303–308.ru_RU
dc.identifier.urihttps://libeldoc.bsuir.by/handle/123456789/45440-
dc.description.abstractPretrained language models based on Transformer have defined new state-of-the-art result on a wide range of tasks being finetuned or used as embedders. Models with Multi-head Self-Attention mechanism have defined a new standart of quality on text summarization task in English, while Transformer based models potential for extractive Russian text summarization has been barely explored. We propose a new method for extractive Russian text summarization, reducing the task to the selection of the most probable sequence of sentences. The new method beats ROUGE-1 and ROUGE-L scores of other models such as SummaRuNNer, and mBART evaluated on Gazeta dataset and is more preferred in human evaluation poll.ru_RU
dc.language.isoenru_RU
dc.publisherБГУИРru_RU
dc.subjectматериалы конференцийru_RU
dc.subjectrussian text summarizationru_RU
dc.subjectpretrained language modelsru_RU
dc.subjectsentence-BERTru_RU
dc.subjectnext sentence predictionru_RU
dc.titleExtractive Russian Text Summarization as Greedy Sentence Sequence Continuation Search with Probabilities from Pretrained Language Modelsru_RU
dc.title.alternativeИзвлекающее автореферирование русскоязычных текстов с применением предобученных языковых моделейru_RU
dc.typeСтатьяru_RU
local.description.annotationПредобученyые языковые модели на основе архитектуры Transformer установили новые рекорды на многих задачах обработки естественных языков при их до обучении или использовании для получения контекстуализированных семантических векторов. Модели с механизмом многоголового внутреннего внимания стали лучшими на задаче автореферирования англоязычных текстов, однако возможности применения подобных подходов для русского языка слабо изучены. Мы представляем новое решение задачи автореферирования текстов на русском языке, которое достигает лучших результатов по нескольким метрикам относительно других моделей, таких как SummaRuNNer и дообученный mBART для генерирующего автореферирования на датасете Gazeta. Результаты работы предлагаемого алгоритма является более предпочтительным вариантом в опросе среди студентов.-
Appears in Collections:OSTIS-2021

Files in This Item:
File Description SizeFormat 
Polyakova_Extractive.pdf135.6 kBAdobe PDFView/Open
Show simple item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.