شماره مدرك :
18460
شماره راهنما :
16060
پديد آورنده :
حسن شاهي، مرضيه
عنوان :

محاسبه درون حافظە اي بر پايه حافظه با دسترسي تصادفي استاتيك

مقطع تحصيلي :
كارشناسي ارشد
گرايش تحصيلي :
الكترونيك
محل تحصيل :
اصفهان : دانشگاه صنعتي اصفهان
سال دفاع :
1401
صفحه شمار :
[سيزده]، 93ص. : مصور (رنگي)، جدول، نمودار
توصيفگر ها :
شبكه‌هاي عصبي كانوولوشن , واحد پردازش مركزي , حافظه‌هاي غيرفرار , حافظه دسترسي تصادفي استاتيك , پرسپترون چندلايه
تاريخ ورود اطلاعات :
1402/02/06
كتابنامه :
كتابنامه
رشته تحصيلي :
مهندسي برق
دانشكده :
مهندسي برق و كامپيوتر
تاريخ ويرايش اطلاعات :
1402/02/06
كد ايرانداك :
2921337
چكيده فارسي :
در سال‌هاي اخير شبكه‌هاي عصبي كانولوشن CNN به دليل دقت بالا در تشخيص تصاوير مورد توجه پژوهشگران قرار گرفته و در بسياري از الگوريتم‌هاي تشخيص تصوير مبتني بر يادگيري ماشين مورد استفاده قرار گرفته‌اند. به دليل حجم بالاي محاسبات و داده در اين شبكه‌ها، به شتاب دهنده‌هايي با عملكرد بالا جهت پياده‌سازي سخت‌افزاري آن‌ها نياز است. درنتيجه تحقيقات وسيعي براي تسريع شتاب‌دهي اين شبكه‌ها انجام و شتاب دهنده‌هاي بسياري براي پياده‌سازي سخت افزاري ارائه شده است. در اين شتاب دهنده‌ها براي انجام محاسبات داده‌هاي مورد نياز از حافظه خوانده شده و در واحد پردازش مركزي CPU عمليات‌هاي مورد نياز انجام شده و دوباره در حافظه ذخيره مي‌شوند. به‌دليل ماهيت شبكه‌هاي عصبي، تعداد اين عمليات‌ها بسيار زياد است و اين روند با تعداد بالا تكرار مي‌شود. اين جابه‌جايي داده‌ها در مسير حافظه و واحد پردازش به دليل تكرار زياد اين عمليات‌ها، توان و زمان زيادي مصرف مي‌كنند. يكي از انواع شتاب‌دهند‌ه‌ها با حذف گذرگاه بين حافظه و واحد پردازنده مركزي سعي در حل اين موضوع دارد. اين نوع شتاب‌دهنده با طراحي يك مدل حافظه جديد، عمليات‌هاي ساده را بدون جابجايي در حافظه و قسمت پردازش انجام مي‌دهد. با ظهور اين روي ‌كرد، حافظه‌هاي غيرفرار NVM كه براي يك حافظه معمول به‌صورت گسترده كاربردي نداشتند، دوباره مورد توجه پژوهشگران قرار گرفتند. اگرچه اين حافظه‌ها براي كاربرد‌هاي ذكرشده مناسب بودند اما به‌دليل تفاوت فرآيند ساخت و هزينه بيشتر و دسترسي كمتر در سيستم‌هاي محاسباتي براي طراحي اين نوع حافظه با مشكلاتي مواجه است. به همين دليل حافظه با دسترسي تصادفي استاتيك SRAM براي اين مدل حافظه خاص مورد توجه قرار گرفت كه با تغيير سلول يك SRAM مي‌توان در حافظه عمليات‌هاي ساده‌اي را انجام داد. در اين پايان‌نامه با تغيير سلول SRAM جهت كنترل ساده‌تر نسبت به انواع مشابه آن و طراحي مدارات جانبي ديگر اين مدل آرايه حافظه در ابعاد 64 128x پياده‌سازي شده است. به دليل معماري خاص اين حافظه يك شبكه عصبي پرسپترون چند لايه MLP با سه لايه مخفي تمام متصل با ابعاد 128 با استفاده از مجموعه داده MNIST آموزش داده شده و زمان انجام محاسبات براي يك ورودي در اين شبكه كاهش داده شده است.
چكيده انگليسي :
Convolutional neural networks (CNNs), which are used in many machine learning-based image recognition algorithms, have gained attention from researchers in recent years due to their high accuracy in image recognition. High-performance accelerators are required for their hardware implementation in these networks due to a large number of calculations and data that must be processed. As a result, a lot of research has been done to accelerate these networks, and many accelerators have been proposed for hardware implementation. In these accelerators, the required data is read from the memory to perform calculations and the required operations are performed in the central processing unit (CPU) and stored again in the memory. Because of the nature of neural networks, a huge number of these operations are performed, and this process is repeated a lot. Due to the frequent repetition of these operations, the data transfer between the memory and processing unit uses a lot of energy and time. By removing the bus that connects the memory and the CPU, one kind of accelerator aims to address this problem. This kind of accelerator, it was accomplished by creating a new memory model that allowed for the execution of straightforward operations within the same memory without the need to move data. As a result of the development of this approach, researchers have begun to pay attention to non-volatile memories (NVM), which had previously received little attention as a common memory. Despite being suitable for the aforementioned applications, these memories have design issues because of the different manufacturing processes, higher costs, and limited access to computing systems. Static random access memory (SRAM), which allows for the execution of straightforward memory operations by switching SRAM cells, was therefore taken into consideration for this particular memory model. This memory array model has been implemented in dimensions of 128x64 by altering the SRAM cell and creating other peripheral circuits. A multi-layer perceptron neural network (MLP) with three fully connected hidden layers and dimensions of 128 has been trained using the MNIST data set and tested with this memory because of the unique architecture of the memory.
استاد راهنما :
مسعود سيدي
استاد داور :
مسعود سيدي , حسين فرزانه فرد
لينک به اين مدرک :

بازگشت