GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف
GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف

پس انتشار: راهی برای درک مغز با شبکه‌های عصبی مصنوعی

رابطه بین پس انتشار و مغز موضوع تحقیقات گسترده‌ای بوده است، به‌ویژه در مورد معقول‌پذیری بیولوژیکی استفاده از پس‌انتشار به‌عنوان مدلی برای درک یادگیری در سیستم‌های عصبی. در اینجا بینش‌های کلیدی از بحث‌ها و تحقیقات اخیر در مورد این موضوع آمده است:

   

پس انتشار و محدودیت‌های آن

·         یادگیری خطا محور[1]: پس انتشار (BP) یک الگوریتم پرکاربرد برای آموزش شبکه‌های عصبی مصنوعی است که با تکیه بر رویکرد خطا محور برای تنظیم وزن‌ها از طریق فرآیندی که شامل یک پاس به جلو و یک پاس به عقب است، است. این روش گرادیان های خطا را با توجه به وزن ها محاسبه می کند و امکان یادگیری موثر در شبکه های عمیق را فراهم می کند [1][2].

·         بیولوژیکی نامحتمل[2]: علیرغم موفقیت در هوش‌مصنوعی، BP به دلیل غیرقابل قبول بودن بیولوژیکی مورد انتقاد قرار گرفته است. نگرانی‌های کلیدی عبارتند از:

·         سیگنال‌های خطای سراسری: BP به سیگنال‌های خطای سراسری نیاز دارد تا از طریق شبکه منتشر شوند، که به وضوح در سیستم‌های بیولوژیکی که اطلاعات محلی رایج‌تر است مشاهده نمی‌شود [1][۴].

·         عدم انعطاف‌پذیری موضعی: به روز رسانی وزن در BP به اطلاعاتی بستگی دارد که به صورت محلی در دسترس نیست، در تضاد با مکانیسم‌های یادگیری بیولوژیکی است که معمولاً از تغییرات سیناپسی محلی مبتنی بر فعالیت پیش سیناپسی و پس سیناپسی استفاده می‌کنند [1][۵].

·         مسائل خودمختاری: BP به مکانیسم‌های کنترل خارجی برای جابجایی بین مراحل یادگیری و پیش بینی نیاز دارد، در حالی که سیستم‌های بیولوژیکی به طور مستقل عمل می‌کنند [1].

 

اتصالات بازخورد در مغز

·         نقش اتصالات بازخورد[3]: اتصالات بازخوردی در مغز رایج است و ممکن است به تعدیل فعالیت عصبی به جای ارائه سیگنال‌های خطای دقیق همانطور که توسط فرمول‌های دقیق BP نیاز است، خدمت کند. این ارتباطات به طور بالقوه می‌توانند تفاوت‌هایی را در فعالیت عصبی ایجاد کنند که سیگنال‌های خطا را به صورت محلی تقریبی می‌کند و یادگیری را بدون نیاز به هماهنگی سراسری تسهیل می‌کند [4][۵].

·         رمزگذاری پیش‌بینی‌کننده: یک چارچوب جایگزین که مورد توجه قرار گرفته است، کدگذاری پیش‌بینی‌کننده است، که فرض می‌کند مغز به طور مداوم پیش‌بینی‌هایی درباره ورودی‌های حسی ایجاد می‌کند و باورهای خود را بر اساس تفاوت بین پیش‌بینی‌ها و داده‌های حسی واقعی به‌روزرسانی می‌کند. این رویکرد بر محاسبات محلی بیش از انتشار خطای سراسری تأکید می‌کند و با دینامیک عصبی مشاهده‌شده همسوتر است [2][۴].

 

 تحولات اخیر

·         تغییرهای قابل قبول بیولوژیکی: برخی از محققان در حال بررسی انواع قابل قبول بیولوژیکی از پس انتشار هستند که سعی می‌کنند اصول آن را با یادگیری بیولوژیکی تطبیق دهند. این مدل‌ها اغلب قوانین انعطاف‌پذیری محلی و مکانیسم‌های بازخوردی را در خود جای می‌دهند که می‌توانند یادگیری کارآمد را بدون تکیه بر سیگنال‌های خطای سراسری امکان‌پذیر کنند [1][۵].

·         مطالعات مقایسه‌ای: مطالعاتی که BP را با مکانیسم‌های یادگیری جایگزین، مانند یادگیری هبی[4] یا همسویی بازخورد[5] مقایسه می‌کنند، نشان می‌دهد که اگرچه BP در سیستم‌های مصنوعی موثر باقی می‌ماند، سیستم‌های بیولوژیکی ممکن است از استراتژی‌های متفاوتی استفاده کنند که کارآمدتر و سازگارتر با شرایط دنیای واقعی هستند [۲][۸].

 

 نتیجه‌گیری

در حالی که ثابت شده است که پس انتشار ابزاری قدرتمند برای آموزش شبکه‌های عصبی مصنوعی است، کاربرد مستقیم آن به‌عنوان مدلی برای درک عملکرد مغز توسط چندین محدودیت بیولوژیکی محدود شده است. اتصالات بازخوردی در مغز ممکن است مکانیسم‌های جایگزینی برای یادگیری فراهم کند که به مشخصه انتشار خطای سراسری BP متکی نیست. تحقیقات در حال انجام همچنان به کشف این که چگونه این بینش‌ها می‌توانند هم علم اعصاب و هم یادگیری ماشین را اطلاع دهند، ادامه می‌یابد که به طور بالقوه منجر به مدل‌های یادگیری با الهام از بیولوژیکی می‌شود.

 

منابع

[1] https://pmc.ncbi.nlm.nih.gov/articles/PMC7610561/

[2] https://www.datasciencecentral.com/backpropagation-the-way-to-understand-the-brain-with-artificial-neural-networks-maybe-not/

[3] https://www.reddit.com/r/MachineLearning/comments/g3gvfm/r_backpropagation_and_the_brain/

[4] https://www.nature.com/articles/s41583-020-0277-3

[5] https://pmc.ncbi.nlm.nih.gov/articles/PMC6382460/

[6] https://www.youtube.com/watch?v=a0f07M2uj_A

[7] https://arxiv.org/html/2408.04460v1

[8] https://kth.diva-portal.org/smash/get/diva2:1795928/FULLTEXT01.pdf



[1] Error-Driven Learning

[2] Biological Implausibility

[3] Role of Feedback Connections

[4] Hebbian Learning

[5] Feedback Alignment

نظرات 0 + ارسال نظر
ایمیل شما بعد از ثبت نمایش داده نخواهد شد