توصيفگر ها :
شبكه عصبي , فيزيكآگاه , مكانيك آسيب , لمتر , تابع هزينه
چكيده فارسي :
شبكههاي عصبي مصنوعي اين قابليت را دارند تا الگوي بين دادههاي ورودي و خروجي در يك سيستم را كشف كنند و براي پيشبيني دادههاي ورودي جديد مورد استفاده قرار بگيرند. نتايج پيشبيني شده توسط شبكههاي عصبي بهطورقطع صحيح نبوده و ميتواند با قيود فيزيكي مسئله در تناقض باشد. شبكههاي عصبي فيزيكآگاه گونه از شبكههاي عصبي هستند كه ضمن فرايند آموزش شبكه عصبي، وزنها و باياسها به گونهاي تنظيم ميشوند كه قيود فيزيكي حاكم را به مسئله اعمال كنند. اين كار با تعريف كردن روابطي مبتني بر فيزيك مسئله در تابع هزينه شبكه عصبي انجام ميگيرد. در پژوهش حاضر شبكه عصبي به گونهاي آموزش ديد كه بتواند مسير تنش و آسيب را بهازاي مسيرهاي كرنش مختلف پيشبيني كند. در تعيين ساختار شبكه عصبي ماهيت دادهها مهم هستند از اينرو به علت وابستگي كرنش به تاريخچه بارگذاري، نرونهاي بازگشتي معرفي و در ادامه نسخهي جديدتري از نرونهاي بازگشتي به نام واحد بازگشتي دروازهاي مورد استفاده قرار گرفت. براي تهيه دادههاي لازم جهت انجام فرايند آموزش شبكه، از مسيرهاي كرنش تصادفي استفاده شد و محاسبه تنش و آسيب متناظر با اين مسيرها به كمك مدل عددي آسيب لمتر انجام شد. اين مدل كه براي پيشبيني رشد آسيب در مواد نرم مورد استفاده قرار ميگيرد، در سابروتين UMAT نرمافزار آباكوس پيادهسازي شد و صحت اجراي آن با يك مسئله محك مورد ارزيابي قرار گرفت. پس از اطمينان از صحت مدل عددي آسيب و تكميل دادهها جهت انجام آموزش نظارتي شبكه، فرايند آموزش شبكه در حالت متعارف در نرم افزار متلب انجام شد. در ادامه با اضافه نمودن روابط فيزيكآگاه در محاسبات تابع هزينه شبكه عصبي، فرايند آموزش با يكسان ماندن ساير شرايط دوباره تكرار شد و نتايج دو حالت با يكديگر مقايسه شد. در اين مقايسه شبكه عصبي فيزيكآگاه، در مقايسه با شبكه عصبي متعارف، قيود فيزيكي حاكم بر رشد آسيب را در نقاط بيشتري از مسئله برقرار كرد. با تعريف خطا بر مبناي قانون ترموديناميكي رشد آسيب، اين خطا در مقايسه عملكرد دو شبكه با 300 داده آزمون، از 10.34% به %6.03 كاهش يافت.
چكيده انگليسي :
Artificial neural networks have the capability to discover patterns between input and output data and can be used to predict new input data. However, the output of neural networks is not necessarily correct and may contradict the physical constraints of the problem. Physics-informed neural networks are a type of neural network in which the weights and biases are adjusted during the training process in such a way that the physical constraints of the problem are satisfied as much as possible. This is achieved by defining terms based on the physics of the problem in the neural network's loss function. In the present study, the neural network was trained to predict stress and damage paths for various strain paths. The structure of the neural network depends on the nature of the data; thus, due to the strain's dependence on history, recurrent neurons were introduced, and subsequently, a newer version of recurrent neurons called Gated Recurrent Unit neurons was used. Random strain paths were employed to generate the necessary data for training the network, and the corresponding stress and damage were computed using the Lemaitre damage model. This model, used for predicting damage growth in soft materials, was implemented in the UMAT subroutine of Abaqus software, and its execution was validated using a benchmark problem. After confirming the accuracy of the numerical damage model and completing the data for supervised training of the network, the training process of the network in the default mode was performed in MATLAB software. Subsequently, by adding the physics-informed term to the neural network's loss function, the training process was repeated under the same conditions, and the results of both modes were compared. In this comparison, the physics-informed neural network, compared to the default network, satisfied physical constraints of damage evolution at more points. By defining the error based on the thermodynamic law of damage evolution, this error was reduced from 10.34% to 6.03% when comparing the performance of two networks with 300 test data.