GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف
GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف

طراحی مدل فضای کاری سراسری با توجه: شبیه‌سازی چشمک زدن توجه و کاهش تاخیر 1

این مطالعه یک مدل محاسباتی مبتنی بر نظریه فضای کاری جهانی[1] (GWT)، یکپارچه با مکانیسم توجه، برای شبیه‌سازی پدیده‌های کلیدی در آگاهی انسان، مانند چشمک‌زدن توجه[2] و کاهش تاخیر-1[3] ارائه می‌کند. در زیر خلاصه‌ای ساختاریافته از مشارکت، روش‌شناسی و مفاهیم مقاله آمده است:

 

 1. مروری بر مدل

نظریه فضای کاری سراسری (GWT)

- GWT آگاهی را به عنوان یک "تئاتر" تصور می‌کند که در آن اطلاعات انتخاب شده برای یکپارچگی و هماهنگی به ماژول‌های شناختی مختلف پخش می‌شود.

- دسترسی آگاهانه رقابتی است و توجه به عنوان دروازه‌بان عمل می‌کند که محرک‌ها برای آن وارد فضای کاری سراسری می‌شوند.

 

ادغام مکانیسم توجه

- مکانیسم توجه در فضای کاری سراسری برای مدیریت دسترسی رقابتی به آگاهی تعبیه شده است.

 - توجه از بالا به پایین: سیگنالهای وظیفه محور محرک‌های خاص را در اولویت قرار می‌دهند.

 - توجه از پایین به بالا: ورودی‌های برجسته (مانند تغییرات حسی ناگهانی) اولویتهای وظیفه محور را نادیده می‌گیرند.

 

ویژگی‌های کلیدی مدل

- 1. Separated Global Workspace Nodes: محاسبات غیر ضروری را با محدود کردن پخش اطلاعات به ماژول‌های مربوطه کاهش می‌دهد.

- 2. مکانیسم همگام‌سازی: با حفظ اثرات چشمک زدن توجه، از تاخیر 1 پشتیبانی می‌کند و تغییرات پویا در تمرکز توجه را امکان‌پذیر می‌کند.

- 3. حافظه‌های کاری خاص مدالیت: حافظه‌های کاری دیداری و شنیداری قبل از رقابت برای دسترسی به فضای کاری سراسری، محرک‌ها را پیشپردازش می‌کنند.

  

 

 2. شبیهسازی‌ها و آزمایشها

شبیهسازی چشمک زدن با دقت

- تعریف: چشمک زدن توجه به ناتوانی موقت در درک هدف دوم زمانی که اندکی پس از اولین هدف در ارائه سریع سریال بصری (RSVP) ظاهر می‌شود، اشاره دارد.

- نتیجه: مدل این پدیده را با شبیهسازی رقابت برای دسترسی به فضای کاری سراسری، که در آن پردازش اولین محرک به طور موقت محرک‌های بعدی را مهار می‌کند، تکرار می‌کند.

 

Lag-1 Sparing Simulation

- تعریف: زمانی که هدف دوم بدون جدایی زمانی از هدف اول پیروی کند، فاصله زمانی رخ می‌دهد.

- نتیجه: مکانیسم هماهنگ‌سازی تضمین می‌کند که محرک‌های با زمان‌بندی دقیق می‌توانند در شرایط خاص چشمک زدن توجه را دور بزنند.

 

 3. مشارکت‌های مقاله

- 1. معماری جدید: انطباق GWT با گره‌های فضای کاری مجزا، کارایی محاسباتی را بهبود می‌بخشد و در عین حال دسترسی سراسری به اطلاعات را حفظ می‌کند.

- 2. توجه به عنوان مکانیزم رقابت: تعبیه توجه در GWT یک چارچوب بیولوژیکی قابل قبول برای مدیریت دسترسی آگاهانه فراهم می‌کند.

- 3. سازگاری روان‌شناختی: شبیه‌سازی‌ها با داده‌های تجربی انسان در مورد پویایی توجه همسو می‌شوند و ارتباط مدل را با علوم اعصاب تأیید می‌کنند.

 

 4. مفاهیم برای هوش مصنوعی و رباتیک شناختی

کاربردهای رباتیک شناختی: این مدل عوامل روباتیک را قادر می‌سازد تا به صورت پویا توجه را بین محرک‌های متعدد، تقلید از پردازش آگاهانه انسان‌مانند، تغییر دهند. این در کارهایی که نیاز به تصمیمگیری و سازگاری در زمان واقعی دارند (به عنوان مثال، تعامل حافظه اپیزودیک) کاربرد دارد.

پیشبرد تحقیقات آگاهی ماشینی: ادغام مکانیسم‌های توجه در GWT پایه‌ای را برای توسعه سیستم‌هایی با قابلیت تمرکز انتخابی و اولویت‌بندی، ویژگی‌های کلیدی مرتبط با آگاهی، فراهم می‌کند.

 

 5. چالش‌ها و جهت‌گیری‌های آینده

چالشها

- 1. مقیاسپذیری: گسترش مدل برای رسیدگی به ورودی‌های حسی در مقیاس بزرگ در حالی که کارایی محاسباتی را حفظ می‌کند.

- 2. اعتبارسنجی در سراسر روش‌ها: اطمینان از سازگاری با ورودی‌های حسی متنوع فراتر از حوزه‌های دیداری و شنیداری.

 

تحقیقات آینده

- 1. مکانیسم‌های همگام‌سازی توسعه‌یافته: شبیه‌سازی‌های کاهش تأخیر 1 برای پویایی‌های زمانی گسترده‌تر.

- 2. سیستمهای چند عاملی: به کارگیری مدل در محیطهای مشترک هوش‌مصنوعی که در آن عامل‌ها فضاهای کاری سراسری را به اشتراک می‌گذارند.

- 3. یکپارچهسازی همبستگی‌های عصبی: نگاشت فرآیندهای محاسباتی به شبکه‌های عصبی بیولوژیکی برای افزایش قابل قبول بودن.

 

نتیجهگیری

این مقاله با تعبیه مکانیسم‌های توجه، GWT را با موفقیت تطبیق می‌دهد، و یک چارچوب محاسباتی کارآمد ایجاد می‌کند که پدیده‌های توجه کلیدی مانند چشمک زدن توجه و کاهش تاخیر ۱ را شبیه‌سازی می‌کند. این پیشرفت ها به طور قابل توجهی به علوم اعصاب نظری و کاربردهای عملی هوش‌مصنوعی کمک می‌کند و راه را برای کاوش بیشتر در آگاهی ماشینی و روباتیک شناختی هموار می‌کند.


[1] https://iris.unipa.it/retrieve/2add2106-399b-47fe-8d4a-22d2d83b29df/s2705078521500211.pdf

[2] http://parham.ai/ece1724_2023/2023_3.pdf

[3] https://en.wikipedia.org/wiki/Global_workspace_theory

[4] https://www.worldscientific.com/doi/abs/10.1142/S2705078521500211

[5] https://pmc.ncbi.nlm.nih.gov/articles/PMC2771980/

[6] https://digitalcommons.memphis.edu/cgi/viewcontent.cgi?article=1150&context=ccrg_papers

[7] https://pmc.ncbi.nlm.nih.gov/articles/PMC8770991/

[8] https://research.manchester.ac.uk/en/publications/a-design-of-global-workspace-model-with-attention-simulations-of-



[1] Global Workspace Model with Attention

[2] attentional blink

[3] lag-1 sparing

نظرات 0 + ارسال نظر
ایمیل شما بعد از ثبت نمایش داده نخواهد شد