شماره مدرك :
19681
شماره راهنما :
17003
پديد آورنده :
تشكر، آرين
عنوان :

آركِين: دفاع در برابر حملات تخاصمي با استفاده از مدل هاي مولد مشروط بر كلاس ر

مقطع تحصيلي :
كارشناسي ارشد
گرايش تحصيلي :
هوش مصنوعي و رباتيكز
محل تحصيل :
اصفهان : دانشگاه صنعتي اصفهان
سال دفاع :
1403
صفحه شمار :
چهارده، 92 ص.: مصور، جدول، نمودار
توصيفگر ها :
هوش مصنوعي , يادگيري عميق , مدل هاي مولد , دسته بندها , حملات تخاصمي
تاريخ ورود اطلاعات :
1403/06/27
كتابنامه :
كتابنامه
رشته تحصيلي :
مهندسي كامپيوتر
دانشكده :
مهندسي برق و كامپيوتر
تاريخ ويرايش اطلاعات :
1403/06/27
كد ايرانداك :
23064032
چكيده فارسي :
با گسترش روز افزون استفاده از هوش مصنوعي و به خصوص ابزارهاي يادگيري عميق در مصارف روزمره، نياز مبرمي به دفاع از چنين ابزار‌هايي در برابر حملات سايبري احتمالي وجود دارد. دسته‌‌ي مهمي از حملات سايبري روي مدل‌هاي يادگيري عميق، حملات تخاصمي نام دارند كه با اعمال تغييرات نامحسوس به چشم غير مسلح روي ورودي‌هاي چنين مدل‌هاي، خروجي‌هاي آن‌ها را دستخوش تغيير مي‌كنند. در اين پژوهش چارچوبي نوين به نام ARCANE براي مقابله با حملات تخاصمي با استفاده از مدل‌هاي مولد مشروط بر كلاس، ارائه خواهد شد. در اين چارچوب كه ادامه‌اي بر پژوهش پيشين ACGAN-ADA به شمار مي‌آيد،‌ علاوه بر استفاده از روش‌هاي نوين تشخيص و پاكسازي حملات، از مدل‌هاي مولد جديدتري در راستاي بهبود كاستي‌هاي چارچوب پيشين استفاده شده است. به طور خاص در زمينه‌ي تشخيص حملات از 3 ويژگي اضافه و يك مدل تشخيص دهنده‌ي نهايي جديد بهره برده مي‌شود. همچنين در زمينه‌ي پاكسازي حملات، استفاده از مدل‌هاي انتشاري شرطي به عنوان يك ايده‌ي جديد مورد آزمايش قرار گرفته است. نتايج تجربي نشان مي‌دهند كه اين چارچوب مي‌تواند در تشخيص و پاكسازي چنين حملاتي به ترتيب 16.62% و 11.8% بهتر از بهترين نتايج پيشين عمل كند.
چكيده انگليسي :
The ever-increasing use of artificial intelligence and specifically deep learning decision makers in our everyday lives necessitates a need to combat potential cyber-attacks deployed against such systems. An important category of such cyber-attacks, dubbed "Adversarial Attacks", alter the outputs of a deep learning-based decision maker by making near-invisible perturbations to its inputs. In this study a framework called ARCANE using class-conditional generative models is presented that aims to provide a novel means of defense against adversarial attacks. Experimental results show that ARCANE‌ is able to outperform previous SOTA frameworks by a margin of 16.62% and 11.8% on adversarial detection and purification tasks, respectively.
استاد راهنما :
محمدحسين منشئي
استاد داور :
عليرضا بصيري , عبدالرضا ميرزايي
لينک به اين مدرک :

بازگشت