CHUQUR NEYRON TARMOQLARIGA RAQOBATLI HUJUMLAR VA ULARNING BIOTIBBIY TASVIRLAR TAHLILIDAGI SAMARADORLIGI
Keywords:
Chuqur o‘rganish, raqobatli hujumlar, biotibbiy tasvirlar, neyron tarmoqlar turg‘unligi, PGD, DeepFool, CW algoritmi, kiber-bardoshlilik.Abstract
Ushbu maqolada zamonaviy tibbiy diagnostika tizimlarining asosi bo‘lgan chuqur neyron tarmoqlarining (CNN) raqobatli hujumlarga (adversarial attacks) nisbatan zaifligi tadqiq etilgan. Tadqiqot jarayonida turli arxitekturalardagi modellar (InceptionV3, ResNet50, DenseNet121 va boshqalar) biotibbiy ma’lumotlar to‘plamlari yordamida testdan o‘tkazilgan. Ishda PGD, DeepFool va CW kabi asosiy hujum algoritmlarining samaradorligi qiyosiy tahlil qilinib, hatto yuqori aniqlikdagi modellar ham inson ko‘zi ilg‘amaydigan minimal o‘zgarishlar (perturbatsiyalar) natijasida noto‘g‘ri xulosa berishi isbotlangan. Maqola yakunida tibbiy sun’iy intellekt tizimlarining kiber-bardoshliligini oshirish bo‘yicha raqobatli o‘qitish va kirish filtrlarini joriy etish kabi amaliy tavsiyalar berilgan.
References
Szegedy, C. Intriguing properties of neural networks [Matn] / C. Szegedy, W. Zaremba, I. Sutskever [va boshq.] // arXiv preprint arXiv:1312.6199. – 2013. – P. 1-10.
Goodfellow, I. Explaining and harnessing adversarial examples [Matn] / I. Goodfellow, J. Shlens, C. Szegedy // arXiv preprint arXiv:1412.6572v3. – 2015. – P. 1-11.
Moosavi-Dezfooli, S. M. DeepFool: a simple and accurate method to fool deep neural networks [Matn] / S. M. Moosavi-Dezfooli, A. Fawzi, P. Frossard // arXiv preprint arXiv:1511.04599v3. – 2015. – P. 1-9.
Madry, A. Towards deep learning models resistant to adversarial attacks [Matn] / A. Madry, A. Makelov, L. Schmidt [va boshq.] // arXiv preprint arXiv:1706.06083v3. – 2017. – P. 1-25.
Carlini, N. Towards evaluating the robustness of neural networks [Matn] / N. Carlini, D. Wagner // IEEE Symposium on Security and Privacy (SP). – 2017. – P. 39–57.