شماره مدرك :
17758
شماره راهنما :
15509
پديد آورنده :
طلائي، مهتاب
عنوان :

توسعه‌ي الگوريتم و بررسي عملكرد يادگيري پراكنده با حريم شخصي تفاضلي تطبيقي

مقطع تحصيلي :
كارشناسي ارشد
گرايش تحصيلي :
كنترل
محل تحصيل :
اصفهان : دانشگاه صنعتي اصفهان
سال دفاع :
1401
صفحه شمار :
يازده، 72ص. : مصور، جدول، نمودار
استاد راهنما :
ايمان ايزدي
استاد مشاور :
محمدرضا حيدرپور
توصيفگر ها :
يادگيري پراكنده , حريم شخصي تفاضلي , حريم شخصي تفاضلي تطبيقي , ضرايب تأثير شخصي‌سازي شده , ضرايب تأثير متغير با زمان
استاد داور :
مريم ذكري، حامد جلالي بيدگلي
تاريخ ورود اطلاعات :
1401/06/07
كتابنامه :
كتابنامه
رشته تحصيلي :
مهندسي برق
دانشكده :
مهندسي برق و كامپيوتر
تاريخ ويرايش اطلاعات :
1401/06/07
كد ايرانداك :
2852990
چكيده فارسي :
يادگيري پراكنده روشي غير متمركز براي مدل‌سازي داده‌هاي ده‌ها تا ميليون‌ها دستگاه توزيع‌شده بدون دسترسي مستقيم به اطلاعات محلي آنهاست. اين روش ابزاري توانا در حفظ اطلاعات كاربران حين يادگيري است. علي‌رغم عدم دسترسي مستقيم سرور به مجموعه‌داده‌هاي محلي، امكان نشت اطلاعات از به‌روزرساني‌هاي ارسالي ميان دستگاه‌ها و سرور همچنان وجود دارد. ريسك نشت اطلاعات زمان به‌كارگيري شبكه‌هاي عصبي در مدل‌هاي محلي افزايش مي‌يابد. از اين رو، ارائه‌ي الگوريتم‌هاي حفاظتي قابل پياده‌سازي در يادگيري پراكنده بسيار حائز اهميت است. لازم است روش‌هاي پيشنهادي ضمن ارتقاء امنيت يادگيري، از نظر محاسباتي مقرون به صرفه، از نظر ارتباطي كارامد، و نسبت به ناهمگوني‌هاي سيستمي و آماري مقاوم عمل كنند. حريم شخصي تفاضلي از جمله الگوريتم‌هاي مورد استفاده در اين فضا است. اساس حريم شخصي تفاضلي اضافه كردن نويز مصنوعي به پارامتر‌هاي ارسالي تحت توزيعي تعيين‌شده است. توزيع گوسي (نرمال) يكي از روش‌هاي اعمال نويز براي حفظ حريم شخصي در داده‌هاي عددي است. اين روش به‌دليل تئوري رياضي قوي، سادگي الگوريتم، و هزينه‌ي نسبي كم از پركاربردترين الگوريتم‌هاي حفاظتي در يادگيري ماشين است؛ اما، به‌كارگيري آن در حوزه‌ي يادگيري پراكنده با كاستي‌هايي روبرو است. هدف اصلي اين پژوهش ارتقاء الگوريتم حريم شخصي تفاضلي بوده كه در دو شاخه دنبال شده است. در شاخه‌ي نخست به منظور ايجاد تعادل ميان دقت و امنيت مدل پس از اضافه ‌كردن نويز گوسي رويكرد استفاده از نويز تطبيقي پيشنهاد شده است. از آنجا كه اضافه كردن نويز به پارامتر‌هاي مدل منجر به تضعيف عملكرد سيستم مي‌شود، اعمال نويز بر اساس ميزان اهميت اين پارامتر‌ها مي‌تواند راه‌حلي براي بهبود دقت مدل‌سازي به‌كار گرفته شود. بنابراين، با اضافه كردن نويز بيشتر به پارامترهاي كم اهميت‌تر و نويز كمتر به پارامترهاي مهم‌تر علاوه بر حفظ حريم شخصي‌ كاربران، دقت الگوريتم بيش از پيش حفظ خواهد شد. در شاخه‌ي ديگر اين پژوهش، هدف ارائه‌ي الگوريتم حريم شخصي تفاضلي در فضاي ناهمگون يادگيري پراكنده است. تخصيص ضرايب تأثير شخصي‌سازي شده و متغير با زمان به دستگاه‌ها در زمان تجميع مدل سراسري مي‌تواند بسياري از آثار سوء تفاوت‌هاي موجود در شبكه‌ي يادگيري پراكنده را جبران سازد. در اين پژوهش، با به‌كارگيري ضرايب تأثير غير ثابت، ملزومات برقراري حريم شخصي تفاضلي ارائه گريده است. همچنين، باند همگرايي الگوريتم در هر دو حالت ضرايب غير ثابت (شخصي‌سازي شده) و متغير با زمان (تطبيقي) مورد تحليل و بررسي قرار گرفته است. الگوريتم‌هاي پيشنهادي تحت سناريوهاي مختلف و سطوح امنيتي گوناگون روي‌ مجموعه‌داده‌ي MNIST و به زبان پايتون پياده‌سازي شده‌اند.
چكيده انگليسي :
Federated learning (FL), is a decentralized Machine Learning (ML) algorithm capable of significantly preserving clients' private data during generating models. Even though the server does not access local datasets, private information can still be divulged by analyzing uploaded parameters from clients, especially while using deep neural networks in local models. Hence, it is necessary to develop privacy-preserving algorithms in this domain. These methods should be computationally cheap, communicationally efficient, and tolerant to statistical and systems heterogeneities. Due to its strong information-theoretic guarantees, differential privacy (DP) is one of the most widely used algorithms for data protection. DP tries to preserve privacy by adding deliberate noise to information being communicated. For numerical data, noise with Gaussian distribution can bring different protection levels. However, using DP in federated learning can expose shortcomings. In this research, the improvements in differential privacy are analyzed from two aspects. Injecting noise to parameter updates compromises model performance in FL. The proposed alternative directing this challenge is utilizing adaptive noise. Perturbing model weights is based on parameters' relative impacts on the outputs. Since the feature importance vary with each other, adding more noise to less important parameters and less noise to more important ones can preserve privacy, while saving the accuracy of the model. On the other hand, this research proposes an approach for data protection in heterogeneous structures using DP. In fact, assigning personalized and time-variant impact factors during aggregating local models' weights in the server compensates for many losses of FL. In this research, DP requirements are presented when non-identical impact factors are used. Moreover, the convergence bound of the loss function is developed and analyzed for both time-invariant (personalized) and time-variant (adaptive) impact factor selections. The simulations of proposed algorithms for different scenarios and protection levels are deployed with Python programing language.
استاد راهنما :
ايمان ايزدي
استاد مشاور :
محمدرضا حيدرپور
استاد داور :
مريم ذكري، حامد جلالي بيدگلي
لينک به اين مدرک :

بازگشت