Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/45428
Title: Model for the representation of artificial neural networks and actions for their processing in the knowledge base
Other Titles: Модель представления искусственных нейронных сетей и действий по их обработке в базе знаний
Authors: Kovalev, M. V.
Keywords: материалы конференций;neuro-symbolic AI;knowledge bases
Issue Date: 2021
Publisher: БГУИР
Citation: Kovalev, M. V. Model for the representation of artificial neural networks and actions for their processing in the knowledge base / M. V. Kovalev // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS-2021) : сборник научных трудов / Белорусский государственный университет информатики и радиоэлектроники ; редкол.: В. В. Голенков [и др.]. – Минск, 2021. – Вып. 5. – С.93–100.
Abstract: The article is dedicated to the problem of the integration of artificial neural networks with knowledge bases. The need for integration and development of a model for the representation of artificial neural networks (ANN) and actions for their processing in the knowledge base as the basis for such integration is justified. The subject domains and the corresponding ontologies of ANN and actions for processing ANN are described.
Alternative abstract: Статья посвящена рассмотрению проблемы интеграции искусственных нейронных сетей с базами знаний. Обоснована необходимость в интеграции и разработке модели представления искусственных нейронных сетей (и.н.с.) и действий по их обработке в базе знаний как основы такой интеграции. Описаны предметные области и соответствующие им онтологии и.н.с. и действий по обработке и.н.с.
URI: https://libeldoc.bsuir.by/handle/123456789/45428
ISSN: 2415-7740
Appears in Collections:OSTIS-2021

Files in This Item:
File Description SizeFormat 
Kovalev_Model.pdf201.48 kBAdobe PDFView/Open
Show full item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.