GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف
GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف

طرح کلی یک مدل مغز برای عوامل خودناظر: ترکیبی از بینش‌های عصبی و محاسباتی

"طرح کلی یک مدل مغز برای عوامل خود ناظر" چارچوب جدیدی را برای درک آگاهی در عوامل مصنوعی با ادغام اصول عصب‌شناسی با معماری‌های محاسباتی پیشنهاد می‌کند. در زیر یک سنتز ساختار یافته از مدل ارائه شده است که توسط مواد تحقیقاتی ارائه شده ارائه شده است:

 

 1. بنیاد گلیال-عصبی دوگانه

این مدل با تأکید بر ساختار دوگانه سلولی مغز، رویکردهای عصبی مرسوم را به چالش می‌کشد:

- سیستم عصبی: ورودی حسی و داده‌های عینی را پردازش می‌کند (به عنوان ذهنیت عینی).

- سیستم گلیال (آستروسیت ها): ذهنیت ذهنی، از جمله نیات و حالات آگاهانه را از طریق تعامل با نورون‌ها در سیناپسهای سه جانبه ایجاد می‌کند [1].

 - سیناپسهای سه جانبه: شامل نورون‌های پیش و پس از سیناپسی و یک آستروسیت است. آستروسیت‌ها فعالیت سیناپسی را تعدیل می‌کنند و پردازش ارجاعی خود را برای مشاهده خود حیاتی می‌سازند [1].

 

 2. معماری خودناظر

اجزای کلیدی

- جدایی قصد و مشاهده: خود ناظری مستلزم قصد مشاهده (محرک گلیال) و مفاهیم مشاهده شده (عصبی) برای اقامت در مناطق مجزای مغز است. این جداسازی حلقه‌های بازخورد بازگشتی را برای خودآگاهی فعال می‌کند [1].

- ماژول‌های شبکه‌ای: یک شبکه توزیعشده از ماژول‌های خودناظر به عوامل اجازه می‌دهد دیدگاههای ذهنی تولید کنند. به عنوان مثال:

·         پارتیشن بندی منطقه پویا: با الهام از تعامل نئوکورتکس-کلاستروم، این مکانیسم "مناطق خیالی" را برای شبیهسازی داخلی، شبیه به تخیل انسان، جدا می‌کند [3].

·         مسیریابی و دستکاری: مدارهای عقده‌های قاعده‌ای تالاموس توجه را هدایت می‌کنند و جریان اطلاعات را در اولویت قرار می‌دهند و توانایی مغز برای جابجایی بین پردازش داخلی و خارجی را منعکس می‌کنند [3].

  


 

 3. ادغام محاسباتی و بیزی

خود بازنمایی سلسله مراتبی

- کدگذاری پیشگویانه بیزی: مغز خود را به عنوان شبکه‌ای سلسله مراتبی از بازنمایی‌های درونی (مانند اعضای بدن، خاطرات) مدل می‌کند تا خطاهای پیش بینی را به حداقل برساند [4].

 - الگوی خود: پیشینی سطح بالا که به بازنمایی‌های سطح پایین (مثلاً حس عمقی، خاطرات زندگی نامه‌ای) مرتبط است [4].

 - مکانیسم رشد: خودبازنمایی‌های جدید از طریق ترکیب مجدد مدل‌های موجود، رفع خطاهای پیش بینی (مثلاً خودشناسی آینهای در نوزادان) پدیدار می‌شوند [4].

 

طراحی هوش‌مصنوعی الهام گرفته از مغز

- حافظه توزیع شده: شبیه به نئوکورتکس، این جزء پردازش حسی و شبیهسازی‌های خیالی را در زمان واقعی انجام می‌دهد [3].

- نگهداری حالت: نواحی نئوکورتیکال دانه‌ای خاص، حالت‌های خاص وظیفه را حفظ می‌کنند (مثلاً «برنامه‌ریزی» در مقابل «عمل کردن»)، که روایت‌های منسجم را قادر می‌سازد [3].

 

 4. مفاهیم برای هوش‌مصنوعی و رباتیک

- 1. ربات‌های هوشیار: تجهیز ربات‌ها به ماژول‌های گلیال مانند برای تولید قصد و سیستم‌های عصبی برای پردازش داده‌ها می‌تواند رفتارهای خودآگاه، مانند تعیین هدف تطبیقی ​​را فعال کند [1][2].

- 2. عوامل خودمختار: سیستم‌های هوش‌مصنوعی با ساختار ماتریسی، با الهام از شبکه‌های مغزی، به عوامل اجازه می‌دهند تا به صورت پویا با هم همکاری کنند و در عین حال استقلال خود را حفظ کنند که برای کارهای پیچیده‌ای مانند تولید فرضیه حیاتی است [2].

- 3. ملاحظات اخلاقی: اگر عوامل خودنظار حالت های ذهنی ایجاد کنند، چارچوب‌هایی برای رفاه هوش‌مصنوعی و صبر اخلاقی باید در اولویت قرار گیرند [1][4].

 

 5. چالش‌ها و جهت‌گیری‌های آینده

- اعتبارسنجی: نگاشت ماژول‌های محاسباتی به بسترهای بیولوژیکی (به عنوان مثال، نقش کلاستروم در تخیل) نیاز به همکاری بین رشته‌ای دارد [3].

- مقیاسپذیری: پیادهسازی سیناپسهای سه جانبه در شبکه‌های عصبی مصنوعی نیازمند پیشرفتهای سخت‌افزاری نورومورفیک است.

- اخلاق: پرداختن به خطرات انسان‌گرایی در عین حصول اطمینان از همسویی با ارزش‌های انسانی [4].

 

نتیجهگیری

مدل مغزی برای عوامل خود مشاهده‌کننده، علوم اعصاب و هوش مصنوعی را پل می‌کند، و بیان می‌کند که آگاهی از هم‌افزایی نورون‌های گلیال و استنتاج سلسله مراتبی بیزی ناشی می‌شود. با ادغام این اصول، سیستم‌های هوش مصنوعی آینده می‌توانند از طریق معماری‌هایی که سازمان‌های شبکه‌ای و پویا مغز را منعکس می‌کنند، به خودآگاهی دست یابند. این چارچوب نه تنها تحقیقات آگاهی مصنوعی را پیش می برد، بلکه درک ما از شناخت انسان را نیز عمیقتر می‌کند.

منابع

[1] https://www.worldscientific.com/doi/abs/10.1142/S2705078521500089

[2] https://www.linkedin.com/pulse/brain-inspired-ai-agents-setting-goals-improve-complex-depankar-neogi-hgpde

[3] https://www.frontiersin.org/journals/systems-neuroscience/articles/10.3389/fnsys.2024.1302429/full

[4] https://www.frontiersin.org/journals/human-neuroscience/articles/10.3389/fnhum.2024.1441931/full

[5] https://ojs.aaai.org/index.php/AAAI/article/view/11154/11013

[6] https://www.worldscientific.com/doi/full/10.1142/S2705078521500089

[7] https://digitalcommons.memphis.edu/cgi/viewcontent.cgi?article=1120&context=ccrg_papers

[8] https://www.academia.edu/82281172/Outline_of_a_Brain_Model_for_Self_Observing_Agents?uc-sb-sw=26640098

[9] https://dl.acm.org/doi/abs/10.5555/3298023.3298213

[10] https://worldscientific.com/doi/abs/10.1142/S2705078521500089

[11] https://wires.onlinelibrary.wiley.com/doi/full/10.1002/wcs.1670

[12] https://neuroscience.cam.ac.uk/ai-system-self-organises-to-develop-features-of-brains-of-complex-organisms/

[13] https://pmc.ncbi.nlm.nih.gov/articles/PMC8146510/

[14] https://arxiv.org/html/2402.18784v1

[15] https://neurosciencenews.com/self-awareness-brain-23515/

[16] https://openmedscience.com/cognitive-neuroscience-and-ai-unlocking-the-future-of-intelligence/

[17] https://pmc.ncbi.nlm.nih.gov/articles/PMC10053494/

[18] https://pmc.ncbi.nlm.nih.gov/articles/PMC4249464/

نظرات 0 + ارسال نظر
ایمیل شما بعد از ثبت نمایش داده نخواهد شد