توصيفگر ها :
شبكههاي عصبي كانوولوشن , واحد پردازش مركزي , حافظههاي غيرفرار , حافظه دسترسي تصادفي استاتيك , پرسپترون چندلايه
چكيده فارسي :
در سالهاي اخير شبكههاي عصبي كانولوشن CNN به دليل دقت بالا در تشخيص تصاوير مورد توجه پژوهشگران قرار گرفته و در بسياري از الگوريتمهاي تشخيص تصوير مبتني بر يادگيري ماشين مورد استفاده قرار گرفتهاند. به دليل حجم بالاي محاسبات و داده در اين شبكهها، به شتاب دهندههايي با عملكرد بالا جهت پيادهسازي سختافزاري آنها نياز است. درنتيجه تحقيقات وسيعي براي تسريع شتابدهي اين شبكهها انجام و شتاب دهندههاي بسياري براي پيادهسازي سخت افزاري ارائه شده است. در اين شتاب دهندهها براي انجام محاسبات دادههاي مورد نياز از حافظه خوانده شده و در واحد پردازش مركزي CPU عملياتهاي مورد نياز انجام شده و دوباره در حافظه ذخيره ميشوند. بهدليل ماهيت شبكههاي عصبي، تعداد اين عملياتها بسيار زياد است و اين روند با تعداد بالا تكرار ميشود. اين جابهجايي دادهها در مسير حافظه و واحد پردازش به دليل تكرار زياد اين عملياتها، توان و زمان زيادي مصرف ميكنند. يكي از انواع شتابدهندهها با حذف گذرگاه بين حافظه و واحد پردازنده مركزي سعي در حل اين موضوع دارد. اين نوع شتابدهنده با طراحي يك مدل حافظه جديد، عملياتهاي ساده را بدون جابجايي در حافظه و قسمت پردازش انجام ميدهد. با ظهور اين روي كرد، حافظههاي غيرفرار NVM كه براي يك حافظه معمول بهصورت گسترده كاربردي نداشتند، دوباره مورد توجه پژوهشگران قرار گرفتند. اگرچه اين حافظهها براي كاربردهاي ذكرشده مناسب بودند اما بهدليل تفاوت فرآيند ساخت و هزينه بيشتر و دسترسي كمتر در سيستمهاي محاسباتي براي طراحي اين نوع حافظه با مشكلاتي مواجه است. به همين دليل حافظه با دسترسي تصادفي استاتيك SRAM براي اين مدل حافظه خاص مورد توجه قرار گرفت كه با تغيير سلول يك SRAM ميتوان در حافظه عملياتهاي سادهاي را انجام داد. در اين پاياننامه با تغيير سلول SRAM جهت كنترل سادهتر نسبت به انواع مشابه آن و طراحي مدارات جانبي ديگر اين مدل آرايه حافظه در ابعاد 64 128x پيادهسازي شده است. به دليل معماري خاص اين حافظه يك شبكه عصبي پرسپترون چند لايه MLP با سه لايه مخفي تمام متصل با ابعاد 128 با استفاده از مجموعه داده MNIST آموزش داده شده و زمان انجام محاسبات براي يك ورودي در اين شبكه كاهش داده شده است.
چكيده انگليسي :
Convolutional neural networks (CNNs), which are used in many machine learning-based image recognition algorithms, have gained attention from researchers in recent years due to their high accuracy in image recognition. High-performance accelerators are required for their hardware implementation in these networks due to a large number of calculations and data that must be processed. As a result, a lot of research has been done to accelerate these networks, and many accelerators have been proposed for hardware implementation. In these accelerators, the required data is read from the memory to perform calculations and the required operations are performed in the central processing unit (CPU) and stored again in the memory. Because of the nature of neural networks, a huge number of these operations are performed, and this process is repeated a lot. Due to the frequent repetition of these operations, the data transfer between the memory and processing unit uses a lot of energy and time. By removing the bus that connects the memory and the CPU, one kind of accelerator aims to address this problem. This kind of accelerator, it was accomplished by creating a new memory model that allowed for the execution of straightforward operations within the same memory without the need to move data. As a result of the development of this approach, researchers have begun to pay attention to non-volatile memories (NVM), which had previously received little attention as a common memory. Despite being suitable for the aforementioned applications, these memories have design issues because of the different manufacturing processes, higher costs, and limited access to computing systems. Static random access memory (SRAM), which allows for the execution of straightforward memory operations by switching SRAM cells, was therefore taken into consideration for this particular memory model. This memory array model has been implemented in dimensions of 128x64 by altering the SRAM cell and creating other peripheral circuits. A multi-layer perceptron neural network (MLP) with three fully connected hidden layers and dimensions of 128 has been trained using the MNIST data set and tested with this memory because of the unique architecture of the memory.