DC Field | Value | Language |
dc.contributor.author | Polyakova, I. | - |
dc.contributor.author | Pogoreltsev, S. | - |
dc.date.accessioned | 2021-09-21T11:50:14Z | - |
dc.date.available | 2021-09-21T11:50:14Z | - |
dc.date.issued | 2021 | - |
dc.identifier.citation | Polyakova, I. Extractive Russian Text Summarization as Greedy Sentence Sequence Continuation Search with Probabilities from Pretrained Language Models / I. Polyakova, S. Pogoreltsev // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS-2021) : сборник научных трудов / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. В. Голенков [и др.]. – Минск, 2021. – Вып. 5. – С. 303–308. | ru_RU |
dc.identifier.uri | https://libeldoc.bsuir.by/handle/123456789/45440 | - |
dc.description.abstract | Pretrained language models based on Transformer have defined new state-of-the-art result on a wide
range of tasks being finetuned or used as embedders. Models with Multi-head Self-Attention mechanism have defined a new standart of quality on text summarization task in English, while Transformer based models potential for extractive Russian text summarization has been barely explored. We propose a new method for extractive Russian text summarization, reducing the task to the selection of the most probable sequence of sentences. The new method beats ROUGE-1 and ROUGE-L scores of other models such as SummaRuNNer, and mBART evaluated on Gazeta dataset and is more preferred in human evaluation poll. | ru_RU |
dc.language.iso | en | ru_RU |
dc.publisher | БГУИР | ru_RU |
dc.subject | материалы конференций | ru_RU |
dc.subject | russian text summarization | ru_RU |
dc.subject | pretrained language models | ru_RU |
dc.subject | sentence-BERT | ru_RU |
dc.subject | next sentence prediction | ru_RU |
dc.title | Extractive Russian Text Summarization as Greedy Sentence Sequence Continuation Search with Probabilities from Pretrained Language Models | ru_RU |
dc.title.alternative | Извлекающее автореферирование русскоязычных текстов с применением предобученных языковых моделей | ru_RU |
dc.type | Статья | ru_RU |
local.description.annotation | Предобученyые языковые модели на основе архитектуры Transformer установили новые рекорды на многих задачах обработки естественных языков при их до обучении или использовании для получения контекстуализированных семантических векторов. Модели с механизмом многоголового внутреннего внимания стали лучшими на задаче автореферирования англоязычных текстов, однако возможности применения подобных подходов для русского языка слабо изучены. Мы представляем новое решение задачи автореферирования текстов на русском языке, которое достигает лучших результатов по нескольким метрикам относительно других моделей, таких как SummaRuNNer и дообученный mBART для генерирующего автореферирования на датасете Gazeta. Результаты работы предлагаемого алгоритма является более предпочтительным вариантом в опросе среди студентов. | - |
Appears in Collections: | OSTIS-2021
|