Skip navigation
Please use this identifier to cite or link to this item: https://libeldoc.bsuir.by/handle/123456789/63518
Full metadata record
DC FieldValueLanguage
dc.contributor.authorKovalev, V. A.-
dc.contributor.authorSnezhko, E. V.-
dc.contributor.authorKarpenko, D. S.-
dc.contributor.authorVarvashevich, A. G.-
dc.coverage.spatialМинскen_US
dc.date.accessioned2026-05-04T08:10:38Z-
dc.date.available2026-05-04T08:10:38Z-
dc.date.issued2026-
dc.identifier.citationEvaluating vulnerabilities and protections of AI methods in computer-assisted image-based diagnosis = Оценка уязвимостей и методов защиты ИИ в компьютеризированной диагностике по изображениям / V. A. Kovalev, E. V. Snezhko, D. S. Karpenko, A. G. Varvashevich // Big Data и анализ высокого уровня = Big Data and Advanced Analytics : сборник научных статей XII Международной научно-практической конференции, Республика Беларусь, Минск, 23 апреля 2026 года : в 2 ч. Ч. 1 / Белорусский государственный университет информатики и радиоэлектроники [и др.] ; редкол.: В. А. Богуш [и др.]. – Минск, 2026. – С. 346–353.en_US
dc.identifier.urihttps://libeldoc.bsuir.by/handle/123456789/63518-
dc.description.abstractThis paper examines three safety aspects of AI in medical image analysis: vulnerability to adversarial attacks, patient data protection via generative models, and federated learning without data sharing. Experiments on over 260,000 chest X-rays, CT slices, and histological slides show that white-box adversarial attacks (FGSM, AutoAttack, Carlini-Wagner) can reduce classification accuracy to 0% when no defense is applied. Among three defense strategies, a high-level task-driven denoiser proved most effective, restoring accuracy up to 100%. Generative models (DC-GAN, Pro-GAN, diffusion) produced realistic synthetic images; using them for data augmentation led to only a modest accuracy drop (2.2-3.5% for deep learning). Federated learning (FedAVG) succeeded only for homogeneous datasets (chest X-rays) but failed for highly variable histological images. The paper concludes that adversarial attacks pose critical threats, generative models enable privacy-preserving augmentation, and federated learning requires careful modality-specific adaptation.en_US
dc.language.isoenen_US
dc.publisherБГУИРen_US
dc.subjectматериалы конференцийen_US
dc.subjectBig Dataen_US
dc.subjectinformation systemsen_US
dc.subjectAI safetyen_US
dc.subjectmedical imagingen_US
dc.subjectneural networksen_US
dc.subjectdeep learningen_US
dc.subjectgenerative modelsen_US
dc.titleEvaluating vulnerabilities and protections of AI methods in computer-assisted image-based diagnosisen_US
dc.title.alternativeОценка уязвимостей и методов защиты ИИ в компьютеризированной диагностике по изображениямen_US
dc.typeArticleen_US
local.description.annotationВ данной статье рассматриваются три аспекта безопасности ИИ при анализе медицинских изображений: уязвимость к состязательным атакам, защита данных пациентов с помощью генеративных моделей и федеративное обучение без обмена данными. Эксперименты на более чем 260 000 рентгеновских снимков грудной клетки, КТ-срезов и гистологических препаратов показывают, что атаки «белого ящика» (FGSM, AutoAttack, Карлини - Вагнера) могут снизить точность классификации до 0% при отсутствии защиты. Среди трёх стратегий защиты Denoiser, управляемый высокоуровневыми данными задачи, оказался наиболее эффективным, восстанавливая точность до 100%. Генеративные модели (DC-GAN, Pro-GAN, диффузионные модели) создавали реалистичные синтетические изображения; их использование для аугментации данных приводило лишь к незначительному снижению точности (2,2-3,5% для глубокого обучения). Федеративное обучение (FedAVG) оказалось успешным только для однородных наборов данных (рентгеновские снимки грудной клетки), но неэффективным для гистологических изображений. В статье делается вывод, что состязательные атаки представляют собой критическую угрозу, генеративные модели обеспечивают аугментацию с сохранением конфиденциальности, а федеративное обучение требует тщательной адаптации к конкретному типу изображений.en_US
Appears in Collections:BIG DATA and Advanced Analytics = BIG DATA и анализ высокого уровня : сборник научных статей : в 2 ч. (2026)

Files in This Item:
File Description SizeFormat 
Kovalev_Evaluating.pdf3.81 MBAdobe PDFView/Open
Show simple item record Google Scholar

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.