توصيفگر ها :
رايانش لبه , كاربردهاي بيدرنگ , حساب شبكه , مساله استقرار سرويسدهندهها
چكيده فارسي :
در ساليان اخير با بهرهگيري از پيشرفت تكنولوژي شبكه، رايانش ابري به عنوان يك الگوي كارآمد و مقياسپذير جهت فراهم نمودن زيرساخت مورد نياز توسعهدهندگان و كاربران نرمافزار ارائه شده است. اما اين الگو در حال حاضر با وجود استفاده گسترده، با چالشهايي از جمله نياز به پهنايباند بالا جهت ارائه خدمات مطلوب به تعداد زيادي از كاربران در هر لحظه روبهرو است. همچنين ميزباني از كاربردهاي بيدرنگ و حساس به تاخير كه امروزه بسيار فراگير شدهاند نيز از ديگر مشكلات جدي رايانش ابري به شمار ميرود. با توجه به اين چالشها، رايانش لبه به عنوان يك الگوي جايگزين مطرح شده است كه در آن بخشي از پردازشها به سرويسدهندههايي كه در لبه شبكه و نزديك به كاربران انتهايي قرار دارند، واگذار ميگردد. از آن جا كه تاخير دسترسي كاربران به سرويسدهنده لبه كمتر است، استفاده از اين الگو سبب كاهش ترافيك ورودي در مراكز داده و در نتيجه كاهش نوسانات تاخير كلي در شبكه ميشود. اما تعيين نقطهي بهينه براي اين كه چه كاري به سرويسدهنده لبه واگذار شود و چه عملياتي در ابر صورت پذيرد چالش جديدي است كه بر روي تاخير و مصرف انرژي اثر خواهد گذاشت. دستيابي به پاسخ مناسب براي حل اين چالش در كاربردهاي بيدرنگ و حساس به تاخير مانند بازي هاي برخط، جريان چندرسانهاي و واقعيت مجازي اهميت بيشتري هم پيدا ميكند. در اين شرايط شبكه بايد به گونهاي پيادهسازي شود تا بتواند حداكثر تاخير پاسخدهي به درخواستهاي كاربران را در همه شرايط تضمين كند كه اين مستلزم استفاده از سرويسدهندههاي بيشتر و قدرتمندتر در لبه است. اما از سوي ديگر محدوديت انرژي و هزينه اجازه بهكارگيري تعداد قابل توجه سرويسدهنده را نميدهند.
بر اين اساس مساله تعيين تعداد سرويسدهندههاي لبه و استقرار آنها در محل مناسب و نيز توزيع مناسب درخواستها بين اين سرويسدهندهها و سرويسدهندههاي ابري به گونهاي كه با حداقل هزينه و مصرف انرژي در مهلت زماني مناسب به درخواستهاي كاربران در شبكه پاسخ داده شود يك مساله بهينهسازي است كه با عنوان مساله استقرار سرويسدهندهها در شبكه شناخته ميشود. در اين پژوهش سعي شده است تا ابتدا يك مدل مناسب مبتني بر حساب شبكه براي تخمين تاخير و مصرف انرژي براي كاربردهاي بيدرنگ در شبكههاي رايانش لبه ارائه شود. سپس با استفاده از اين مدل، مساله استقرار با در نظر گرفتن حد زماني پاسخ به درخواستها و مصرف حداقل انرژي تعريف گردد. براي حل اين مساله هم يك روش مبتني بر الگوريتم ژنتيك معرفي گرديده است. نتايج نشان ميدهند كه اولاً مدل ارائه شده براي تاخير شبكه همواره ميتواند يك كران بالا براي تاخير يك شبكه واقعي را تقريب بزند. ثانياً روش حل پيشنهادي براي مساله استقرار تعريف شده بر مبناي اين مدل، ميتواند در زمان قابل قبول استقرار سرويسدهندهها را به گونهاي انجام دهد كه ضمن مصرف حداقل انرژي، تضمين نمايد كه حد زماني همه درخواستها رعايت خواهند شد. ارزيابي روش پيشنهادي براي يك بازي برخط با حد زماني قابل تحمل 100 ميلي ثانيه صورت پذيرفته كه در آن روش حل پيشنهادي توانسته تاخير كاربران را همواره از اين حد زماني كمتر نگه دارد. همچنين حل مساله استقرار با الگوريتم ژنتيك براي يك شبكه با ابعاد كوچك توانسته 93 درصد زمان اجراي كمتري نسبت به الگوريتم جستجوي فراگير داشته باشد.
چكيده انگليسي :
In recent years, cloud computing is introduced as an efficient and scalable infrastructure for software developers and users to cover enormous processing power and storage requirements with low latency. Despite its widespread use, this model faces challenges such as the need for high bandwidth to provide desired services to a large number of users connected simultaneously. Additionally, hosting latency-sensitive and real-time applications which are very popular today, is another serious challenge for cloud computing. Regarding these challenges, edge computing has been proposed as an alternative model, in which some of the processing is offloaded to servers located at the edge of the network closer to end users. Since the access delay for users to edge servers is lower, using this model reduces incoming traffic to data centers and consequently, reduces overall network delay and jitter. However, determining the optimal point to decide which tasks to must be sent to edge servers and what operations must be performed in the cloud is a new challenge that affects both latency and energy consumption. This challenge gets more importance in latency-sensitive and real-time applications such as online games, multimedia streaming, and virtual reality. In these application network must be implemented in a way that can guarantee maximum response delay to user requests in all conditions. One solution can be using more powerful servers at the edge. But energy and cost constraints do not allow to place considerable number of servers at the edge.
Determining the appropriate number of edge servers and deploying them in the appropriate locations to guarantee maximum response time and minimum energy consumption is an optimization problem known as the server placement problem. In this study, first a model based on network calculus is presented for estimating the delay in edge computing environment. This model considers the worst-case delay and so, can meet the requirements for real time applications. Then, using this model, the server placement problem is defined to guarantee the maximum delay with minimum energy consumption. To solve this problem in an acceptable time, a metaheuristic approach is presented using genetic algorithm. The results show that the presented model can accurately approximate the delay of a real network. Furthermore, the proposed genetic algorithm for the defined server placement problem can deploy minimum power consuming servers at the edge to meet the deadline of all requests of real time applications.