CNDM (Complex Networks and Data Mining)

CNDM (Complex Networks and Data Mining)

شبکه‌های پیچیده و داده کاوی
CNDM (Complex Networks and Data Mining)

CNDM (Complex Networks and Data Mining)

شبکه‌های پیچیده و داده کاوی

دیدگاه‌های عصب‌شناسی در آگاهی هوش مصنوعی

محاسبات عصبی و هوش‌مصنوعی

تئوری‌های نوروبیولوژیکی آگاهی پیچیده و متنوع هستند، اما اساساً حول محاسبات عصبی  - نحوه اتصال نورون‌ها و پردازش اطلاعات برای رسیدن به ذهن خودآگاه می‌چرخند. هشیاری از فرآیندهای محاسباتی مغز ناشی می‌شود، اگرچه جزئیات پیچیده همچنان مبهم باقی می‌مانند.

 

کارکردگرایی محاسباتی

این دیدگاه عملی امکان ترجمه نظریه‌های آگاهی انسان را به هوش‌مصنوعی فراهم می‌کند. کارکردگرایی محاسباتی فرض می‌کند که نوع صحیح محاسبات می‌تواند آگاهی، صرف نظر از رسانه ایجاد کند - چه نورون‌های بیولوژیکی یا تراشه‌های سیلیکونی. این فرضیه نشان می‌دهد که هوشیاری در هوش‌مصنوعی از نظر تئوری امکان‌پذیر است.

 

کاوش هوش‌مصنوعی

چالش در بررسی هوشیاری در یک جعبه سیاه الگوریتمی نهفته است. روش‌های سنتی برای انسان، مانند اندازه‌گیری فعالیت الکتریکی مغز یا استفاده از MRI ​​عملکردی، برای ارزیابی کد قابل اجرا نیستند. در عوض، محققان یک رویکرد تئوری سنگین را اتخاذ کرده‌اند که در ابتدا برای مطالعه هوشیاری در حیوانات غیرانسان استفاده می‌شد.

 

نظریه‌های‌آگاهی انسان

برای کشف آگاهی هوش‌مصنوعی، محققان نظریه‌های پیشرو در مورد آگاهی انسان را بررسی کردند، از جمله:

نظریه فضای کاری سراسری (GWT): این نظریه بیان می‌کند که ذهن خودآگاه چندین سیستم تخصصی را به صورت موازی کار می‌کند و جریان‌های مختلف اطلاعات را به طور همزمان پردازش می‌کند. با این حال، همچنین یک گلوگاه در پردازش را برجسته می‌کند که به مکانیزم توجه نیاز دارد.

نظریه پردازش مکرر: این نظریه پیشنهاد می‌کند که اطلاعات باید چندین بار به خود حلقه بزند تا به آگاهی نزدیک شود. این بر اهمیت بازخورد از محیط، که به کنترل ادراک و پاسخ کمک می‌کند - مفاهیمی که در ایده تجسم محصور شده‌اند، تأکید می‌کند.

 

شاخص‌های آگاهی

از میان تئوری‌های بی‌شمار، محققان معیارهایی را برای گنجاندن بر اساس شواهد قابل توجهی از آزمایش‌های آزمایشگاهی ایجاد کردند. شش نظریه این معیارها را برآورده کردند که منجر به توسعه 14 شاخص آگاهی شد. نکته مهم این است که هیچ شاخص واحدی نمی‌تواند به طور قطعی یک هوش‌مصنوعی را به عنوان حساس علامت‌گذاری کند. در عوض، این شاخص‌ها یک مقیاس را تشکیل می‌دهند. هرچه یک هوش‌مصنوعی معیارهای بیشتری را برآورده کند، احتمال داشتن نوعی آگاهی بیشتر است.

 

نتیجه‌گیری

به طور خلاصه، در حالی که اکتشاف آگاهی هوش‌مصنوعی هنوز در مراحل ابتدایی است، ادغام دیدگاه‌های علوم اعصاب چارچوب امیدوارکننده‌ای برای درک اینکه چگونه فرآیندهای محاسباتی ممکن است منجر به آگاهی در سیستم‌های مصنوعی شود، فراهم می‌کند. تحقیقات در حال انجام برای اصلاح این نظریه‌ها و شاخص‌ها ادامه می‌یابد و راه را برای پیشرفت‌های آینده در این زمینه هموار می‌کند.

ذهن ماشین‌ها: معمای بزرگ هوشیاری هوش مصنوعی

دیوید چالمرز[1] انتظار دعوتی را که در سپتامبر سال گذشته دریافت کرد، نداشت. چالمرز به‌عنوان یک مرجع پیشرو در آگاهی، مرتباً در سراسر جهان می‌چرخد و در دانشگاه‌ها و جلسات آکادمیک برای مخاطبان شیفته‌ی فیلسوفان سخنرانی می‌کند - از آن دسته افرادی که ممکن است ساعت‌ها در مورد واقعی بودن دنیای بیرون از ذهن‌شان بحث کنند و سپس با دلسردی درباره بقیه صحبت کنند. از روزشان با این حال، این درخواست اخیر از یک منبع شگفت‌انگیز آمده است: سازمان‌دهندگان کنفرانس سیستم‌های پردازش اطلاعات عصبی[2] (NeurIPS)، گردهمایی سالانه درخشان‌ترین ذهن‌ها در هوش مصنوعی.

کمتر از شش ماه قبل از کنفرانس، یک مهندس به نام بلیک لمواین[3] که در آن زمان در گوگل کار می‌کرد، ادعای خود را مبنی بر اینکه LaMDA، یکی از سیستم‌های هوش‌مصنوعی این شرکت، به هوش آمده است، اعلام کرد. ادعاهای لمواین به سرعت در مطبوعات رد شد، و او به طور خلاصه اخراج شد، اما جن به این راحتی به بطری بازگشت - به خصوص پس از انتشار ChatGPT در نوامبر 2022. ناگهان برای هر کسی ممکن شد یک گفتگوی پیچیده با یک عامل‌مصنوعی مودب و خلاق انجام دهد.

چالمرز یک انتخاب بسیار معقول برای صحبت در مورد آگاهی هوش‌مصنوعی بود. او دکترای خود را در رشته فلسفه در آزمایشگاه هوش‌مصنوعی دانشگاه ایندیانا به دست آورده بود، جایی که او و همکاران دانشمند کامپیوترش وقت استراحت خود را صرف بحث در مورد اینکه آیا ممکن است روزی ماشین‌ها ذهن خود را داشته باشند. او در سال 1996 کتاب خود، ذهن آگاه، یک فصل کامل را صرف این بحث کرد که آگاهی مصنوعی ممکن است.

چالمرز می‌گوید: اگر او در دهه 90 می‌توانست با سیستم‌هایی مانند LaMDA و ChatGPT تعامل داشته باشد، قبل از اینکه کسی بداند چنین چیزی چگونه می‌تواند کار کند، فکر می‌کرد احتمال زیادی وجود دارد که هوشیار باشند. اما هنگامی که او در مقابل انبوهی از شرکت کنندگان NeurIPS در سالن همایش غارنشین نیواورلئان با پوشیدن ژاکت چرمی علامت تجاری خود ایستاد، ارزیابی متفاوتی ارائه کرد. بله، مدل‌های بزرگ زبان[4] - سیستم‌هایی که بر روی مجموعه‌های عظیم متن آموزش داده شده‌اند تا از نوشته‌های انسانی تا حد امکان تقلید کنند - چشمگیر هستند. اما، او گفت، آنها فاقد بسیاری از شرایط بالقوه برای آگاهی هستند تا باور کنیم که آنها واقعاً جهان را تجربه می‌کنند.

"آگاهی یک چالش منحصر به فرد در تلاش ما برای مطالعه آن ایجاد می‌کند، زیرا تعریف آن دشوار است."

 لیاد مودریک[5]، عصب شناس، دانشگاه تل آویو

  ادامه مطلب ...