Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/48744
Title: Пределы и риски цифровой трансформации
Other Titles: Limits and Risks of Digital Transformation
Authors: Ахромеева, Т. С.
Малинецкий, Г. Г.
Посашков, С. А.
Keywords: цифровая трансформация;искусственный интеллект;когнитивные барьеры;тест Тьюринга;барьер Лема
Issue Date: 2020
Publisher: ГИАЦ
Citation: Ахромеева, Т. С. Пределы и риски цифровой трансформации = Limits and Risks of Digital Transformation / Т. С. Ахромеева, Г. Г. Малинецкий, С. А. Посашков // Цифровая трансформация. – 2020. – № 2(11). – С. 51–57. – DOI : https://doi.org/10.38086/2522-9613-2020-2-51-57.
Abstract: В настоящее время процесс цифровой трансформации активно идет в экономике, науке, образовании и в обществе в целом. С ним связан ряд ограничений и рисков, рассматриваемых в статье. Большой класс ограничений позволяет выявить математическая теория сложности. Точное решение ряда простых по виду проблем с небольшим объемом входных данных требует ресурсов, многократно превышающих возможности всех доступных компьютеров. На «границе» между естественным и искусственным интеллектом имеет место «когнитивный барьер». Это приводит к тому, что мы, как правило, не можем воспользоваться результатами работы ряда систем с искусственным интеллектом, чтобы скорректировать свои стратегии. Мы и машины «думаем» по-разному. Их приходится рассматривать как «черные ящики». Весьма вероятно, что тестер систем искусственного интеллекта станет одной из массовых профессий уже в недалеком будущем. Приведены примеры, показывающие, что «перевод» с «непрерывного» на «дискретный» язык может приводить к качественно различному поведению математических моделей. В ряде задач, связанных с вычислительным экспериментом, это может быть весьма существенно. Большие риски возникают при переходе в «быстрый мир», при приближении к «барьеру Лема». Это происходит, когда системам искусственного интеллекта препоручаются стратегически важные задачи, которые они должны решать в темпе, недоступном для человека. Проведенный анализ показывает, что управление рисками цифровой трансформации и её ограничений требует внимания научного и экспертного сообщества, а также активных участников этого процесса.
Alternative abstract: Currently, the process of digital transformation is actively going on in the economy, science, education, and society as a whole. This process has a number of restrictions and risks we consider. The mathematical theory of complexity reveals a large class of the restrictions. The exact solution of a number of simple-looking problems with a small amount of input data requires resources many times greater than the capabilities of all available computers. On the “border” between natural and artificial intelligence lies the “cognitive barrier”. This, as a rule, makes it impossible to use the results of a number of artificial intelligence systems to adjust our strategies. We and computers “think” differently. They have to be considered as “black boxes”. It is very likely that the tester of artificial intelligence systems will become one of the mass professions in the close future. We give examples to show that the “translation” from “continuous” to “discrete” language can lead to qualitatively different behavior of mathematical models. In a number of problems associated with a computational experiment this can be quite significant. Great risks arise when passing to the “fast world”, approaching the “Lem’s barrier”. It happens when artificial intelligence systems are assigned strategically important tasks that they must solve at a speed inaccessible to humans. The analysis shows that managing the risks of digital transformation and its limitations requires the attention of the scientific and expert community, as well as active participants in this process.
URI: https://libeldoc.bsuir.by/handle/123456789/48744
Appears in Collections:№2(11)

Files in This Item:
File Description SizeFormat 
Akhromeyeva_Predely.pdf360.14 kBAdobe PDFView/Open
Show full item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.