| DC Field | Value | Language |
| dc.contributor.author | Kovalev, V. A. | - |
| dc.contributor.author | Snezhko, E. V. | - |
| dc.contributor.author | Karpenko, D. S. | - |
| dc.contributor.author | Varvashevich, A. G. | - |
| dc.coverage.spatial | Минск | en_US |
| dc.date.accessioned | 2026-05-04T08:10:38Z | - |
| dc.date.available | 2026-05-04T08:10:38Z | - |
| dc.date.issued | 2026 | - |
| dc.identifier.citation | Evaluating vulnerabilities and protections of AI methods in computer-assisted image-based diagnosis = Оценка уязвимостей и методов защиты ИИ в компьютеризированной диагностике по изображениям / V. A. Kovalev, E. V. Snezhko, D. S. Karpenko, A. G. Varvashevich // Big Data и анализ высокого уровня = Big Data and Advanced Analytics : сборник научных статей XII Международной научно-практической конференции, Республика Беларусь, Минск, 23 апреля 2026 года : в 2 ч. Ч. 1 / Белорусский государственный университет информатики и радиоэлектроники [и др.] ; редкол.: В. А. Богуш [и др.]. – Минск, 2026. – С. 346–353. | en_US |
| dc.identifier.uri | https://libeldoc.bsuir.by/handle/123456789/63518 | - |
| dc.description.abstract | This paper examines three safety aspects of AI in medical image analysis: vulnerability to adversarial attacks, patient data protection via generative models, and federated learning without data sharing. Experiments on over 260,000 chest X-rays, CT slices, and histological slides show that white-box adversarial attacks (FGSM, AutoAttack, Carlini-Wagner) can reduce classification accuracy to 0% when no defense is applied. Among three defense strategies, a high-level task-driven denoiser proved most effective, restoring accuracy up to 100%. Generative models (DC-GAN, Pro-GAN, diffusion) produced realistic synthetic images; using them for data augmentation led to only a modest accuracy drop (2.2-3.5% for deep learning). Federated learning (FedAVG) succeeded only for homogeneous datasets (chest X-rays) but failed for highly variable histological images. The paper concludes that adversarial attacks pose critical threats, generative models enable privacy-preserving augmentation, and federated learning requires careful modality-specific adaptation. | en_US |
| dc.language.iso | en | en_US |
| dc.publisher | БГУИР | en_US |
| dc.subject | материалы конференций | en_US |
| dc.subject | Big Data | en_US |
| dc.subject | information systems | en_US |
| dc.subject | AI safety | en_US |
| dc.subject | medical imaging | en_US |
| dc.subject | neural networks | en_US |
| dc.subject | deep learning | en_US |
| dc.subject | generative models | en_US |
| dc.title | Evaluating vulnerabilities and protections of AI methods in computer-assisted image-based diagnosis | en_US |
| dc.title.alternative | Оценка уязвимостей и методов защиты ИИ в компьютеризированной диагностике по изображениям | en_US |
| dc.type | Article | en_US |
| local.description.annotation | В данной статье рассматриваются три аспекта безопасности ИИ при анализе медицинских изображений: уязвимость к состязательным атакам, защита данных пациентов с помощью генеративных моделей и федеративное обучение без обмена данными. Эксперименты на более чем 260 000 рентгеновских снимков грудной клетки, КТ-срезов и гистологических препаратов показывают, что атаки «белого ящика» (FGSM, AutoAttack, Карлини - Вагнера) могут снизить точность классификации до 0% при отсутствии защиты. Среди трёх стратегий защиты Denoiser, управляемый высокоуровневыми данными задачи, оказался наиболее эффективным, восстанавливая точность до 100%. Генеративные модели (DC-GAN, Pro-GAN, диффузионные модели) создавали реалистичные синтетические изображения; их использование для аугментации данных приводило лишь к незначительному снижению точности (2,2-3,5% для глубокого обучения). Федеративное обучение (FedAVG) оказалось успешным только для однородных наборов данных (рентгеновские снимки грудной клетки), но неэффективным для гистологических изображений. В статье делается вывод, что состязательные атаки представляют собой критическую угрозу, генеративные модели обеспечивают аугментацию с сохранением конфиденциальности, а федеративное обучение требует тщательной адаптации к конкретному типу изображений. | en_US |
| Appears in Collections: | BIG DATA and Advanced Analytics = BIG DATA и анализ высокого уровня : сборник научных статей : в 2 ч. (2026)
|