شماره مدرك :
19432
شماره راهنما :
16813
پديد آورنده :
ابراهيم پور، پوريا
عنوان :

دفاع تحرك مبناي مقاوم در برابر حملات خصمانه

مقطع تحصيلي :
كارشناسي ارشد
گرايش تحصيلي :
نرم افزار
محل تحصيل :
اصفهان : دانشگاه صنعتي اصفهان
سال دفاع :
1402
صفحه شمار :
دوازده، 79ص
توصيفگر ها :
يادگيري ماشين , يادگيري عميق , نمونه‌ي خصمانه , دفاع تحرك‌مبنا , بازي بيزي استكلبرگ
تاريخ ورود اطلاعات :
1403/02/16
كتابنامه :
كتابنامه
رشته تحصيلي :
كامپيوتر
دانشكده :
مهندسي برق و كامپيوتر
تاريخ ويرايش اطلاعات :
1403/02/24
كد ايرانداك :
23024363
چكيده فارسي :
استفاده از يادگيري ماشين و شبكه‌هاي عصبي عميق در سيستم‌ها و برنامه‌هاي انساني، كمك شاياني به پيشبرد اهداف بشر كرده است. با اين حال، آسيب‌پذيري اين رويكردها در برابر حملات موضوعي است كه مي‌تواند به قيمت جان يك انسان تمام شود. از اين رو، تامين امنيت اين سيستم‌ها و برنامه‌ها به يكي از چالش‌هاي اساسي تبديل شده است. حملات خصمانه يكي از اين نوع حملات است كه با ايجاد و اضافه كردن يك اغشاش كوچك به نمونه‌هاي ورودي، سعي در فريب دادن و برهم زدن عملكرد طبيعي سيستم دارد. از آنجايي كه اندازه‌ي اين اغتشاش آن‌قدر كوچك است كه حتي با چشم انسان هم قابل تشخيص نيست، شناسايي و تشخيص اين ورودي‌ها بسيار سخت است. از طرفي وجود مفهومي ‌به نام انتقال‌پذيري حمله باعث مي‌شود تا مهاجمان بدون داشتن اطلاعات از مدل هدف بتوانند به آن حمله كنند. مهاجمان اغلب با بررسي مداوم سيستم‌ها، به آسيب‌پذيري موجود در سيستم پي برده و با ايجاد اغتشاشي كه مدل هدف را فريب مي‌دهد، حمله‌ي خود را ترتيب مي‌دهند. در اين ارتباط، دفاع تحرك‌مبنا راهكاري است كه اخيراً در بحث امنيت نرم افزار و شبكه‌هاي كامپيوتري مورد استفاده قرار مي‌گيرد و با هدف تغيير مداوم پيكربندي سيستم، سعي دركاهش موفقيت حملات سايبري دارد. اخيراً از اين راهكار در بحث حملات خصمانه نيز استفاده شده است كه نتايج بهتري نسبت به روش‌هاي دفاعي قبلي داشته است. در اين پژوهش، در نظر داريم با برطرف كردن كاستي‌هاي موجود در اين روش‌ها، يك راهكار و چارچوب مقاوم نسبت به حملات خصمانه ارائه دهيم و در صورت امكان اين راهكار را در سيستم‌هاي موجود به‌كار گيريم. رويكرد ارائه‌شده توسط حملات جعبه سفيد روي مجموعه داده‌هاي MNIST و CIFAR10 مورد ارزيابي قرار گرفت كه صحت روش پيشنهادي براي مجموعه داده MNIST در مقابل حملات FGSM،C&W، PGD و Deep Fool به ترتيب برابر 80.15، 98.65، 83.47 و 89.45 است و در داده‌هاي پاك نيز صحت 99.36 را دارد.
چكيده انگليسي :
The utilization of machine learning and deep neural networks in various systems and human applications has significantly propelled human endeavors forward. Nonetheless, the susceptibility of these approaches to targeted attacks poses a grave threat that could potentially jeopardize human lives. Consequently, safeguarding the security of these systems and applications has emerged as a paramount challenge. Adversarial attacks represent a form of assault designed to deceive and disrupt the natural operation of a system by introducing subtle perturbations to input samples. These perturbations are so minute that they escape human detection, rendering the identification and detection of such inputs exceedingly arduous. Moreover, the notion of attack transferability empowers attackers to target a model without possessing specific information about it. Attackers frequently exploit system vulnerabilities through continuous monitoring, crafting perturbations that mislead the target model into executing their malicious activities. In this context, proactive defense has emerged as a strategy recently employed in the realm of software and computer network security. By consistently adjusting system configurations, proactive defense endeavors to diminish the efficacy of cyber attacks. This proactive defense approach has also been leveraged in the domain of adversarial attacks, showcasing superior outcomes compared to previous defensive strategies. In this study, our objective is to furnish a robust solution and framework to counter adversarial attacks by rectifying the deficiencies of existing methods. If feasible, we intend to implement this solution within current systems. The proposed methodology underwent assessment through white-box attacks on the MNIST and CIFAR10 datasets, achieving accuracies of 80.15%, 98.65%, 83.47%, and 89.45% against FGSM, C&W, PGD, and Deep Fool attacks on the MNIST dataset, respectively. Furthermore, the method attains an accuracy of 99.36% on clean data.
استاد راهنما :
علي فانيان
استاد داور :
محمد دخيل عليان , پروين رستگاري
لينک به اين مدرک :

بازگشت