توصيفگر ها :
فرايند گوسي , واسط مغز-رايانه , رمزگشايي , اطلاعات عصبي
چكيده فارسي :
مغز انسان مركز اصلي پردازش اطلاعات حسي و هماهنگي واكنشها به محيط اطراف است. با اين حال، آسيبها و اختلالات عصبي ميتوانند بهطور جدي اين عملكردها را مختل كنند و منجر به ناتوانيهاي قابلتوجهي در فعاليتهاي روزمره و حركات غيرارادي شوند. پيشرفتهاي اخير در فناوري واسط مغز-رايانه (BCI) بهمنظور ارائه راهحلهايي براي افرادي كه از اين مشكلات رنج ميبرند، انجام شدهاست. رمزگشايي اطلاعات بصري از سيگنالهاي عصبي، بهويژه در مواجهه با چالشهايي نظير ابعاد بالاي داده، تعداد محدود نمونهها و نويز ذاتي سيگنالهاي مغزي، يكي از موانع اصلي در مسير توسعهي واسطهاي مغز-رايانه پيشرفته است. اين رساله با هدف غلبه بر اين محدوديتها، يك چارچوب مولد احتمالي غيرپارامتري نوين با عنوان رمزگشاي مولد-تمايزي در فضاي نهفته (LDGD)، مبتني بر فرآيندهاي گوسي، ارائه ميدهد. اين مدل با يادگيري يك فضاي پنهان مشترك و كمبُعد، از طريق بهرهگيري همزمان از ويژگيهاي سيگنال عصبي و برچسبهاي محرك بصري، قادر است وظايف تمايزي (دستهبندي) و مولد (بازتوليد داده) را به انجام رساند. براي افزايش مقياسپذيري و امكان آموزش دستهاي، از تكنيك نقاط القايي استفاده شده و همچنين نسخهاي سريع از مدل با نام fastLDGD براي كاربردهاي بلادرنگ توسعه يافته است. براي ارزيابي مدل، از دادههاي الكتروآنسفالوگرام داخل جمجمهاي (iEEG) ثبتشده از بيماران مبتلا به صرع در حين انجام دو آزمايش بصري استفاده شد: يك وظيفهي ساده با تحريك دوتايي (آزمايش چشمكزن) و يك وظيفهي پيچيدهي چندخروجي (آزمايش توالي صفحهشطرنجي 10×10). نتايج نشان داد كه در آزمايش ساده، مدل fastLDGD به ميانگين صحت ٪72 دست يافت و عملكردي برتر از مدلهاي مرجع يادگيري ماشين (مانند SVM و XGBoost) و يادگيري عميق (مانند VAE و EEGNet) از خود نشان داد. در آزمايش پيچيدهي صفحهشطرنجي، اگرچه همانطور كه انتظار ميرفت، رمزگشايي تمام پيكسلها به صورت يكنواخت بالاتر از سطح شانس نبود، اما نتايج، يافتههاي مهمي را در بر داشت. مدل توانست وضعيت پيكسل مركزي را با دقت ٪69 رمزگشايي كند و تحليل فضايي دقت، يك ارتباط معنادار ميان عملكرد مدل و كانون توجه بصري را آشكار ساخت؛ بهطوريكه دقت با افزايش فاصله از مركز تصوير كاهش مييافت. اين پژوهش كارايي چارچوب بيزي پيشنهادي را براي رمزگشايي مقاوم اطلاعات بصري از دادههاي عصبي محدود و پرنويز اثبات ميكند. يافتهها و مدلهاي توسعهيافته در اين رساله، گامي مهم در جهت طراحي نسل جديدي از واسطهاي مغز-رايانهي تفسيرپذير براي كاربردهايي نظير پروتزهاي عصبي بينايي و نگاشت عملكردي مغز به شمار ميروند.
چكيده انگليسي :
The human brain is the principal center for processing sensory information and coordinating responses to the surrounding environment. However, neurological injuries and disorders can severely disrupt these functions, leading to significant impairments in daily activities and involuntary movements. Recent advances in brain–computer interface (BCI) technology aim to provide solutions for individuals suffering from these issues. Decoding visual information from neural signals—particularly in the face of high-dimensional data, limited sample sizes, and the intrinsic noise of brain recordings—remains one of the main obstacles to developing sophisticated BCIs. To overcome these limitations, this dissertation introduces a novel nonparametric probabilistic generative framework called the Latent Discriminative Generative Decoder (LDGD), based on Gaussian processes. By jointly leveraging neural signal features and visual stimulus labels, LDGD learns a shared low-dimensional latent space capable of both discriminative (classification) and generative (data reconstruction) tasks. To enhance scalability and enable mini-batch training, an inducing-point approximation is employed, and a real-time variant, fastLDGD, is developed for online applications. The model was evaluated using intracranial electroencephalography (iEEG) data recorded from epilepsy patients performing two visual tasks: a simple binary stimulation task (flashing-checker) and a complex multi-output task (10×10 checkerboard sequence). In the simple task, fastLDGD achieved an average accuracy of 72% outperforming standard machine-learning baselines (e.g. SVM and XGBoost) and deep-learning approaches (e.g., VAE and EEGNet). In the complex checkerboard task, although uniform pixel-wise decoding did not exceed chance levels as expected, the model yielded important insights: it decoded the central pixel state with 69% accuracy, and spatial accuracy analysis revealed a significant correlation between decoding performance and visual attention, with accuracy decreasing as distance from the image center increased. This research demonstrates the efficacy of the proposed Bayesian framework for robustly decoding visual information from limited, noisy neural data. The findings and models presented here represent an important step toward designing a new generation of interpretable BCIs for applications such as visual neuroprostheses and functional brain mapping.