توصيفگر ها :
يادگيري ماشين , يادگيري عميق , نمونهي خصمانه , دفاع تحركمبنا , بازي بيزي استكلبرگ
چكيده فارسي :
استفاده از يادگيري ماشين و شبكههاي عصبي عميق در سيستمها و برنامههاي انساني، كمك شاياني به پيشبرد اهداف بشر كرده است. با اين حال، آسيبپذيري اين رويكردها در برابر حملات موضوعي است كه ميتواند به قيمت جان يك انسان تمام شود. از اين رو، تامين امنيت اين سيستمها و برنامهها به يكي از چالشهاي اساسي تبديل شده است. حملات خصمانه يكي از اين نوع حملات است كه با ايجاد و اضافه كردن يك اغشاش كوچك به نمونههاي ورودي، سعي در فريب دادن و برهم زدن عملكرد طبيعي سيستم دارد. از آنجايي كه اندازهي اين اغتشاش آنقدر كوچك است كه حتي با چشم انسان هم قابل تشخيص نيست، شناسايي و تشخيص اين وروديها بسيار سخت است. از طرفي وجود مفهومي به نام انتقالپذيري حمله باعث ميشود تا مهاجمان بدون داشتن اطلاعات از مدل هدف بتوانند به آن حمله كنند. مهاجمان اغلب با بررسي مداوم سيستمها، به آسيبپذيري موجود در سيستم پي برده و با ايجاد اغتشاشي كه مدل هدف را فريب ميدهد، حملهي خود را ترتيب ميدهند. در اين ارتباط، دفاع تحركمبنا راهكاري است كه اخيراً در بحث امنيت نرم افزار و شبكههاي كامپيوتري مورد استفاده قرار ميگيرد و با هدف تغيير مداوم پيكربندي سيستم، سعي دركاهش موفقيت حملات سايبري دارد. اخيراً از اين راهكار در بحث حملات خصمانه نيز استفاده شده است كه نتايج بهتري نسبت به روشهاي دفاعي قبلي داشته است. در اين پژوهش، در نظر داريم با برطرف كردن كاستيهاي موجود در اين روشها، يك راهكار و چارچوب مقاوم نسبت به حملات خصمانه ارائه دهيم و در صورت امكان اين راهكار را در سيستمهاي موجود بهكار گيريم. رويكرد ارائهشده توسط حملات جعبه سفيد روي مجموعه دادههاي MNIST و CIFAR10 مورد ارزيابي قرار گرفت كه صحت روش پيشنهادي براي مجموعه داده MNIST در مقابل حملات FGSM،C&W، PGD و Deep Fool به ترتيب برابر 80.15، 98.65، 83.47 و 89.45 است و در دادههاي پاك نيز صحت 99.36 را دارد.
چكيده انگليسي :
The utilization of machine learning and deep neural networks in various systems and human applications has significantly propelled human endeavors forward. Nonetheless, the susceptibility of these approaches to targeted attacks poses a grave threat that could potentially jeopardize human lives. Consequently, safeguarding the security of these systems and applications has emerged as a paramount challenge. Adversarial attacks represent a form of assault designed to deceive and disrupt the natural operation of a system by introducing subtle perturbations to input samples. These perturbations are so minute that they escape human detection, rendering the identification and detection of such inputs exceedingly arduous. Moreover, the notion of attack transferability empowers attackers to target a model without possessing specific information about it. Attackers frequently exploit system vulnerabilities through continuous monitoring, crafting perturbations that mislead the target model into executing their malicious activities. In this context, proactive defense has emerged as a strategy recently employed in the realm of software and computer network security. By consistently adjusting system configurations, proactive defense endeavors to diminish the efficacy of cyber attacks. This proactive defense approach has also been leveraged in the domain of adversarial attacks, showcasing superior outcomes compared to previous defensive strategies. In this study, our objective is to furnish a robust solution and framework to counter adversarial attacks by rectifying the deficiencies of existing methods. If feasible, we intend to implement this solution within current systems. The proposed methodology underwent assessment through white-box attacks on the MNIST and CIFAR10 datasets, achieving accuracies of 80.15%, 98.65%, 83.47%, and 89.45% against FGSM, C&W, PGD, and Deep Fool attacks on the MNIST dataset, respectively. Furthermore, the method attains an accuracy of 99.36% on clean data.