DC Field | Value | Language |
dc.contributor.author | Пискун, Г. А. | - |
dc.contributor.author | Алексеев, В. Ф. | - |
dc.contributor.author | Воронко, Т. М. | - |
dc.coverage.spatial | Минск | ru_RU |
dc.date.accessioned | 2023-05-30T12:19:15Z | - |
dc.date.available | 2023-05-30T12:19:15Z | - |
dc.date.issued | 2023 | - |
dc.identifier.citation | Пискун, Г. А. Обзор программной платформы Apache Hadoop для обработки и хранения больших данных / Г. А. Пискун, В. Ф. Алексеев, Т. М. Воронко // BIG DATA и анализ высокого уровня = BIG DATA and Advanced Analytics : сборник научных статей IX Международной научно-практической конференции, Минск, 17–18 мая 2023 г. : в 2 ч. Ч. 1 / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. А. Богуш [и др.]. – Минск, 2023. – С. 465-471. | ru_RU |
dc.identifier.uri | https://libeldoc.bsuir.by/handle/123456789/51667 | - |
dc.description.abstract | Выполнен обзор программной платформы для хранения и обработки больших данных на
примере Apache Hadoop, которая представляет собой свободно распространяемый набор утилит, библиотек и
фреймворк для разработки и выполнения распределённых программ, работающих на кластерах из сотен и тысяч
узлов. Рассмотрена концептуальная архитектура платформы через описание основных модулей, входящих в нее:
Hadoop Common, Hadoop Distributed File System, Hadoop YARN и Hadoop MapReduce. Проанализирована область
применения данной технологии. Установлено, что такие платформы для обработки и хранения больших данных как
Apache Hadoop, являются одними из самых важных инструментов для работы с данными в современном мире,
обеспечивая безопасность инфраструктуры и оптимизируя бизнес-процессы. | ru_RU |
dc.language.iso | ru | ru_RU |
dc.publisher | БГУИР | ru_RU |
dc.subject | материалы конференций | ru_RU |
dc.subject | большие данные | ru_RU |
dc.subject | платформа Apache Hadoop | ru_RU |
dc.title | Обзор программной платформы Apache Hadoop для обработки и хранения больших данных | ru_RU |
dc.title.alternative | Review of the software platform for processing and storing Big Data on the example of Apache Hadoop | ru_RU |
dc.type | Article | ru_RU |
local.description.annotation | A review of the software platform for storing and processing big data is made using the example of Apache
Hadoop, as one of the most common and effective today. This is a freely distributed set of utilities, libraries and framework for
developing and executing distributed programs running on clusters of hundreds and thousands of nodes. The conceptual
architecture of the platform is considered through the description of the main modules included in it: Hadoop Common, Hadoop
Distributed File System, Hadoop YARN, Hadoop MapReduce, and the scope of this technology is analyzed.
As a result of the analysis, it was found that such platforms for processing and storing big data, such as Apache Hadoop,
are one of the most important tools for working with data in the modern world, ensuring infrastructure security and optimizing
business processes. | ru_RU |
Appears in Collections: | BIG DATA and Advanced Analytics = BIG DATA и анализ высокого уровня : сборник научных статей (2023)
|