عنوان :
آركِين: دفاع در برابر حملات تخاصمي با استفاده از مدل هاي مولد مشروط بر كلاس
ر
مقطع تحصيلي :
كارشناسي ارشد
گرايش تحصيلي :
هوش مصنوعي و رباتيكز
محل تحصيل :
اصفهان : دانشگاه صنعتي اصفهان
صفحه شمار :
چهارده، 92 ص.: مصور، جدول، نمودار
توصيفگر ها :
هوش مصنوعي , يادگيري عميق , مدل هاي مولد , دسته بندها , حملات تخاصمي
تاريخ ورود اطلاعات :
1403/06/27
رشته تحصيلي :
مهندسي كامپيوتر
دانشكده :
مهندسي برق و كامپيوتر
تاريخ ويرايش اطلاعات :
1403/06/27
چكيده فارسي :
با گسترش روز افزون استفاده از هوش مصنوعي و به خصوص ابزارهاي يادگيري عميق در مصارف روزمره، نياز مبرمي به دفاع از چنين ابزارهايي در برابر حملات سايبري احتمالي وجود دارد. دستهي مهمي از حملات سايبري روي مدلهاي يادگيري عميق، حملات تخاصمي نام دارند كه با اعمال تغييرات نامحسوس به چشم غير مسلح روي وروديهاي چنين مدلهاي، خروجيهاي آنها را دستخوش تغيير ميكنند. در اين پژوهش چارچوبي نوين به نام ARCANE براي مقابله با حملات تخاصمي با استفاده از مدلهاي مولد مشروط بر كلاس، ارائه خواهد شد. در اين چارچوب كه ادامهاي بر پژوهش پيشين ACGAN-ADA به شمار ميآيد، علاوه بر استفاده از روشهاي نوين تشخيص و پاكسازي حملات، از مدلهاي مولد جديدتري در راستاي بهبود كاستيهاي چارچوب پيشين استفاده شده است. به طور خاص در زمينهي تشخيص حملات از 3 ويژگي اضافه و يك مدل تشخيص دهندهي نهايي جديد بهره برده ميشود. همچنين در زمينهي پاكسازي حملات، استفاده از مدلهاي انتشاري شرطي به عنوان يك ايدهي جديد مورد آزمايش قرار گرفته است. نتايج تجربي نشان ميدهند كه اين چارچوب ميتواند در تشخيص و پاكسازي چنين حملاتي به ترتيب 16.62% و 11.8% بهتر از بهترين نتايج پيشين عمل كند.
چكيده انگليسي :
The ever-increasing use of artificial intelligence and specifically deep learning decision makers in our everyday lives necessitates a need to combat potential cyber-attacks deployed against such systems. An important category of such cyber-attacks, dubbed "Adversarial Attacks", alter the outputs of a deep learning-based decision maker by making near-invisible perturbations to its inputs. In this study a framework called ARCANE using class-conditional generative models is presented that aims to provide a novel means of defense against adversarial attacks. Experimental results show that ARCANE is able to outperform previous SOTA frameworks by a margin of 16.62% and 11.8% on adversarial detection and purification tasks, respectively.
استاد راهنما :
محمدحسين منشئي
استاد داور :
عليرضا بصيري , عبدالرضا ميرزايي