GML (Graph Machine Learning)

یادگیری ماشین گراف

GML (Graph Machine Learning)

یادگیری ماشین گراف

ذهن ماشین‌ها: معمای بزرگ هوشیاری هوش مصنوعی

دیوید چالمرز[1] انتظار دعوتی را که در سپتامبر سال گذشته دریافت کرد، نداشت. چالمرز به‌عنوان یک مرجع پیشرو در آگاهی، مرتباً در سراسر جهان می‌چرخد و در دانشگاه‌ها و جلسات آکادمیک برای مخاطبان شیفته‌ی فیلسوفان سخنرانی می‌کند - از آن دسته افرادی که ممکن است ساعت‌ها در مورد واقعی بودن دنیای بیرون از ذهن‌شان بحث کنند و سپس با دلسردی درباره بقیه صحبت کنند. از روزشان با این حال، این درخواست اخیر از یک منبع شگفت‌انگیز آمده است: سازمان‌دهندگان کنفرانس سیستم‌های پردازش اطلاعات عصبی[2] (NeurIPS)، گردهمایی سالانه درخشان‌ترین ذهن‌ها در هوش مصنوعی.

کمتر از شش ماه قبل از کنفرانس، یک مهندس به نام بلیک لمواین[3] که در آن زمان در گوگل کار می‌کرد، ادعای خود را مبنی بر اینکه LaMDA، یکی از سیستم‌های هوش‌مصنوعی این شرکت، به هوش آمده است، اعلام کرد. ادعاهای لمواین به سرعت در مطبوعات رد شد، و او به طور خلاصه اخراج شد، اما جن به این راحتی به بطری بازگشت - به خصوص پس از انتشار ChatGPT در نوامبر 2022. ناگهان برای هر کسی ممکن شد یک گفتگوی پیچیده با یک عامل‌مصنوعی مودب و خلاق انجام دهد.

چالمرز یک انتخاب بسیار معقول برای صحبت در مورد آگاهی هوش‌مصنوعی بود. او دکترای خود را در رشته فلسفه در آزمایشگاه هوش‌مصنوعی دانشگاه ایندیانا به دست آورده بود، جایی که او و همکاران دانشمند کامپیوترش وقت استراحت خود را صرف بحث در مورد اینکه آیا ممکن است روزی ماشین‌ها ذهن خود را داشته باشند. او در سال 1996 کتاب خود، ذهن آگاه، یک فصل کامل را صرف این بحث کرد که آگاهی مصنوعی ممکن است.

چالمرز می‌گوید: اگر او در دهه 90 می‌توانست با سیستم‌هایی مانند LaMDA و ChatGPT تعامل داشته باشد، قبل از اینکه کسی بداند چنین چیزی چگونه می‌تواند کار کند، فکر می‌کرد احتمال زیادی وجود دارد که هوشیار باشند. اما هنگامی که او در مقابل انبوهی از شرکت کنندگان NeurIPS در سالن همایش غارنشین نیواورلئان با پوشیدن ژاکت چرمی علامت تجاری خود ایستاد، ارزیابی متفاوتی ارائه کرد. بله، مدل‌های بزرگ زبان[4] - سیستم‌هایی که بر روی مجموعه‌های عظیم متن آموزش داده شده‌اند تا از نوشته‌های انسانی تا حد امکان تقلید کنند - چشمگیر هستند. اما، او گفت، آنها فاقد بسیاری از شرایط بالقوه برای آگاهی هستند تا باور کنیم که آنها واقعاً جهان را تجربه می‌کنند.

"آگاهی یک چالش منحصر به فرد در تلاش ما برای مطالعه آن ایجاد می‌کند، زیرا تعریف آن دشوار است."

 لیاد مودریک[5]، عصب شناس، دانشگاه تل آویو

  

با این حال، با سرعت سرسام‌آور توسعه هوش‌مصنوعی، همه چیز می‌تواند ناگهان تغییر کند. چالمرز برای مخاطبان ریاضی‌اش، کاملا مشخص شد: او تخمین می‌زند که شانس توسعه هوش‌مصنوعی هوشیار در 10 سال آینده بیش از یک در پنج سال است.

چالمرز می‌گوید که بسیاری از مردم پیشنهاد او را مضحک رد کردند: «یعنی مطمئنم که برخی از مردم چنین واکنشی داشتند، اما آن‌ها کسانی نبودند که با من صحبت می‌کردند.» در عوض، او چند روز بعد را در گفتگو با کارشناسان هوش‌مصنوعی گذراند که احتمالاتی را که او توضیح داده بود بسیار جدی گرفتند. برخی با شور و شوق از مفهوم ماشین‌های آگاه به چالمرز آمدند. با این حال، دیگران از آنچه او توصیف کرده بود وحشت کردند. اگر هوش‌مصنوعی هوشیار بود، آن‌ها استدلال می‌کردند - اگر می‌توانست از منظر شخصی خود به دنیا نگاه کند، نه صرفاً ورودی‌ها را پردازش کند، بلکه آنها را نیز تجربه کند - شاید آسیب ببیند.

هوش‌مصنوعی فقط یک پازل فکری شیطانی نیست. این یک مسئله اخلاقی سنگین با عواقب بالقوه وخیم است. قادر به شناسایی یک هوش‌مصنوعی آگاهانه نیستید، و ممکن است ناخواسته موجودی را که علایقش باید مهم باشد، تحت سلطه یا حتی شکنجه قرار دهید. هوش‌مصنوعی ناخودآگاه را با هوش‌مصنوعی اشتباه بگیرید، و به خاطر یک توده سیلیکون و کد نااندیشیده و بی احساس، در خطر به خطر انداختن امنیت و شادی انسان هستید. انجام هر دو اشتباه آسان است. لیاد مودریک، عصب شناس دانشگاه تل آویو که از اوایل دهه 2000 در مورد آگاهی تحقیق کرده است، می گوید: «آگاهی چالشی منحصر به فرد در تلاش ما برای مطالعه آن ایجاد می‌کند، زیرا تعریف آن دشوار است. "این ذاتا ذهنی است."

در طول چند دهه گذشته، یک جامعه تحقیقاتی کوچک به شدت به این سوال که آگاهی چیست و چگونه کار می‌کند، حمله کرده است. این تلاش باعث پیشرفت واقعی در مورد چیزی شده است که زمانی مسئله‌ی غیر قابل حل به نظر می‌رسید. اکنون، با پیشرفت سریع فناوری هوش‌مصنوعی، این بینش‌ها می‌توانند تنها راهنمای ما را برای آب‌های آزمایش‌نشده و مملو از اخلاقی آگاهی مصنوعی ارائه دهند.

مودریک می‌گوید: «اگر ما به‌عنوان یک رشته بتوانیم از نظریه‌هایی که داریم و یافته‌هایی که داریم استفاده کنیم تا به یک آزمون خوب برای آگاهی برسیم، احتمالاً یکی از مهم‌ترین کمک‌ها خواهد بود. می توانستیم بدهیم.»

وقتی مودریک تحقیقات خود را درباره آگاهی توضیح می‌دهد، با یکی از چیزهای بسیار مورد علاقه خود شروع می‌کند: شکلات. قرار دادن یک قطعه در دهان باعث ایجاد سمفونی از رویدادهای عصبی-بیولوژیکی می‌شود گیرنده‌های قند و چربی زبان شما مسیرهای متصل به مغز را فعال می‌کنند، مجموعه‌ای از سلول‌ها در ساقه مغز غدد بزاقی شما را تحریک می‌کنند و نورون‌ها در عمق سر شما دوپامین شیمیایی را آزاد می‌کنند. با این حال، هیچ یک از این فرآیندها، بیرون آوردن یک مربع شکلات از بسته فویل آن و اجازه دادن به آن در دهان ذوب شدن، نشان نمی‌دهد. آنچه که من سعی در درک آن دارم این است که مغز چه چیزی را به ما امکان می‌دهد نه تنها اطلاعات را پردازش کنیم - که به خودی خود یک چالش بزرگ و یک دستاورد شگفت انگیز برای مغز است - بلکه به تجربه اطلاعاتی که در حال پردازش هستیم نیز می‌باشد. مودریک می‌گوید.

از نظر حرفه‌ای، مطالعه پردازش اطلاعات انتخاب ساده‌تری برای مودریک بود. آگاهی مدت‌هاست که موضوعی به حاشیه رانده شده در علوم اعصاب بوده است که در بهترین حالت غیر جدی و در بدترین حالت غیرقابل حل است. مدخل «آگاهی» در ویرایش سال 1996 فرهنگ لغت بین‌المللی روان‌شناسی می‌گوید: «پدیده‌ای جذاب اما گریزان». "هیچ چیز ارزش خواندن روی آن نوشته نشده است."

مودریک منصرف نشد. از سال‌های لیسانس در اوایل دهه ۲۰۰۰، او می‌دانست که نمی‌خواهد چیزی جز آگاهی تحقیق کند. او می‌گوید: «ممکن است این معقول‌ترین تصمیمی نباشد که به عنوان یک محقق جوان می‌توان گرفت، اما من نمی‌توانستم جلوی آن را بگیرم. "من نمی توانستم از آن سیر شوم." او دو مدرک دکترا گرفت - یکی در علوم اعصاب، دیگری در فلسفه - در عزم خود برای رمزگشایی از ماهیت تجربه انسانی.

همانطور که یک موضوع لغزنده می‌تواند آگاهی باشد، تعیین آن غیرممکن نیست - به عبارت ساده‌تر، توانایی تجربه چیزها است. اغلب با عباراتی مانند «احساس» و «خودآگاهی» اشتباه گرفته می‌شود، اما طبق تعاریفی که بسیاری از متخصصان استفاده می‌کنند، هوشیاری پیش‌نیاز برای آن توانایی‌های پیچیده‌تر دیگر است. برای اینکه یک موجود حساس باشد، باید بتواند تجربیات مثبت و منفی - به عبارت دیگر، لذت‌ها و دردها - داشته باشد. و خودآگاه بودن نه تنها به معنای داشتن یک تجربه بلکه دانستن این است که شما در حال داشتن یک تجربه هستید.

مودریک در آزمایشگاه خود نگران احساسات و خودآگاهی نیست. او علاقه‌مند به مشاهده اتفاقاتی است که هنگام دستکاری تجربه آگاهانه افراد در مغز اتفاق می‌افتد. این کار در اصل آسان است. به کسی یک تکه بروکلی بدهید تا بخورد، و این تجربه با خوردن یک تکه شکلات بسیار متفاوت خواهد بود و احتمالاً منجر به یک اسکن مغزی متفاوت خواهد شد. مسئله این است که این تفاوت‌ها قابل تفسیر نیستند. تشخیص اینکه کدام یک با تغییرات در اطلاعات مرتبط است - بروکلی و شکلات گیرنده های طعم بسیار متفاوتی را فعال می‌کنند - و نشان دهنده تغییرات در تجربه آگاهانه هستند غیرممکن است.

ترفند این است که بدون تغییر محرک، تجربه را تغییر دهید، مانند دادن یک تکه شکلات به کسی و سپس چرخاندن سوئیچ برای ایجاد حس خوردن کلم بروکلی. این با سلیقه امکان‌پذیر نیست، اما با بینایی ممکن است. در یک رویکرد پرکاربرد، دانشمندان از مردم می‌خواهند که به طور همزمان به دو تصویر مختلف نگاه کنند، یکی با هر چشم. اگرچه چشم‌ها هر دو تصویر را می‌گیرند، درک هر دو در یک زمان غیرممکن است، بنابراین سوژه‌ها اغلب گزارش می‌دهند که تجربه بصری آن‌ها «تغییر» می‌کند: ابتدا یک تصویر را می‌بینند و سپس به‌طور خود به خود، دیگری را می‌بینند. با ردیابی فعالیت مغز در طی این چرخش‌ها در آگاهی آگاهانه، دانشمندان می‌توانند مشاهده کنند که وقتی اطلاعات دریافتی ثابت می‌ماند اما تجربه آن تغییر می‌کند چه اتفاقی می‌افتد.

با این رویکردها و سایر رویکردها، مودریک و همکارانش توانسته‌اند حقایق ملموسی در مورد نحوه عملکرد هوشیاری در مغز انسان ایجاد کنند. مخچه، ناحیه‌ای از مغز در قاعده جمجمه که شبیه به یک مشت ماکارونی موی فرشته است، به نظر می‌رسد هیچ نقشی در تجربه خودآگاه ایفا نمی‌کند، اگرچه برای کارهای حرکتی ناخودآگاه مانند دوچرخه سواری بسیار مهم است. از سوی دیگر، ارتباطات بازخورد - برای مثال، ارتباطاتی که از "بالاتر" مناطق شناختی مغز به آن‌هایی که در پردازش حسی اساسی‌تر دخیل هستند - برای آگاهی ضروری به نظر می‌رسند. (به هر حال، این یک دلیل خوب برای شک در آگاهی LLMها است: آنها فاقد ارتباطات بازخورد قابل توجهی هستند.)

یک دهه پیش، گروهی از دانشمندان علوم اعصاب ایتالیایی و بلژیکی موفق به ابداع آزمایشی برای هوشیاری انسان شدند که از تحریک مغناطیسی ترانس کرانیال (TMS) استفاده می‌کند، یک شکل غیرتهاجمی از تحریک مغزی که با نگه داشتن یک عصای مغناطیسی شکل هشت در نزدیکی سر فرد اعمال می‌شود. . تنها از طریق الگوهای حاصل از فعالیت مغز، این تیم قادر به تشخیص افراد هوشیار از افرادی بود که تحت بیهوشی یا عمیقاً خواب بودند، و حتی می‌توانستند تفاوت بین حالت نباتی (جایی که فردی بیدار است اما هوشیار نیست) و قفل شده را تشخیص دهند. در سندرم (که در آن بیمار هوشیار است اما اصلا نمی‌تواند حرکت کند).

این یک گام بزرگ رو به جلو در تحقیقات هوشیاری است، اما برای پرسش هوش‌مصنوعی آگاهانه معنی کمی دارد: مدل‌های GPT OpenAI مغزی ندارند که بتوان توسط یک گرز TMS تحریک شود. برای آزمایش هوشیاری هوش‌مصنوعی، شناسایی ساختارهایی که باعث ایجاد هوشیاری در مغز انسان می‌شوند کافی نیست. شما باید بدانید که چرا آن ساختارها به آگاهی کمک می‌کنند، به گونه‌ای که به اندازه کافی دقیق و کلی است که برای هر سیستمی، چه انسان و چه غیر از آن قابل اجرا باشد.

کریستف کخ، رئیس سابق مؤسسه آلن و یک محقق تأثیرگذار آگاهی می‌گوید: «در نهایت، شما به یک نظریه نیاز دارید. "شما دیگر نمی‌توانید فقط به شهود خود وابسته باشید. شما به یک نظریه بنیادی نیاز دارید که به شما بگوید آگاهی چیست، چگونه وارد جهان می‌شود و چه کسی آن را دارد و چه کسی ندارد.»

در اینجا یک نظریه در مورد چگونگی عملکرد آن آزمون تورنسل برای آگاهی وجود دارد: هر موجودی که به اندازه کافی باهوش است، که قادر به پاسخگویی موفقیت آمیز به طیف وسیعی از زمینه‌ها و چالش‌ها است، باید آگاه باشد. ظاهراً این یک نظریه پوچ نیست. ما انسان‌ها تا آنجا که می‌دانیم باهوش‌ترین مغزها را در اطراف خود داریم و قطعاً آگاه هستیم. به نظر می‌رسد حیوانات باهوش‌تر نیز هوشیارتر هستند - اتفاق نظر بسیار بیشتری در مورد هوشیاری شامپانزه‌ها نسبت به مثلاً خرچنگ‌ها وجود دارد.

اما هوشیاری و هوش یکی نیستند. وقتی مودریک تصاویری را روی سوژه‌های آزمایشی‌اش فلش می‌کند، از آنها نمی‌خواهد در مورد چیزی فکر کنند یا توانایی‌های حل مسئله‌شان را آزمایش نمی‌کنند. حتی خرچنگی که در کف اقیانوس می‌چرخد، بدون آگاهی از گذشته‌اش یا فکری درباره آینده‌اش، اگر می‌توانست لذت یک لقمه میگوی خوشمزه یا درد پنجه‌ای زخمی را تجربه کند، همچنان هوشیار است.

سوزان اشنایدر، مدیر مرکز ذهن آینده در دانشگاه آتلانتیک فلوریدا، فکر می‌کند که هوش مصنوعی با کنار گذاشتن کامل هوشیاری می‌تواند به ارتفاعات بالاتری از هوش برسد. فرآیندهای آگاهانه مانند نگه داشتن چیزی در حافظه کوتاه مدت بسیار محدود است - ما فقط می‌توانیم به چند چیز در یک زمان توجه کنیم و اغلب برای انجام کارهای ساده مانند به خاطر سپردن یک شماره تلفن به اندازه کافی برای تماس با آن تلاش می‌کنیم. بلافاصله مشخص نیست که هوش‌مصنوعی چه چیزی از هوشیاری به دست می‌آورد، به خصوص با توجه به دستاوردهای چشمگیری که چنین سیستم‌هایی بدون آن توانسته‌اند به دست آورند.

از آنجایی که تکرارهای بعدی GPT خود را بیش از پیش باهوش‌تر نشان می‌دهد هر چه بیشتر و بیشتر قادر به پاسخگویی به طیف وسیعی از خواسته‌ها، از آزمون وکالت گرفته تا ساختن یک وب سایت از ابتدا هستند موفقیت آنها به خودی خود نمی‌تواند به عنوان یک تلقی شود. شواهدی از آگاهی آنها حتی ماشینی که رفتار غیر قابل تشخیصی از انسان دارد، لزوماً از چیزی آگاه نیست.

درک اینکه چگونه یک هوش مصنوعی در داخل کار می‌کند می‌تواند یک گام اساسی برای تعیین اینکه آیا هوشیار است یا نه.

با این حال اشنایدر امید خود را در آزمایشات از دست نداده است. او به همراه ادوین ترنر، فیزیکدان پرینستون، آنچه را که «آزمون هوشیاری مصنوعی» می‌نامد، فرموله کرده است. انجام آن آسان نیست: این کار مستلزم جداسازی یک عامل هوش‌مصنوعی از هرگونه اطلاعات مربوط به آگاهی در طول آموزش است. (این مهم است تا مانند LaMDA نتواند فقط عبارات انسانی در مورد آگاهی را طوطی وار بیان کند.) سپس، هنگامی که سیستم آموزش دید، آزمایشگر از آن سؤالاتی می‌پرسد که فقط در صورتی می‌تواند به آنها پاسخ دهد که در مورد هوشیاری بداند - دانش فقط می‌تواند. از خود آگاه بودن به دست آورده‌اند. آیا می‌تواند داستان فیلم «جمعه عجیب» را بفهمد، جایی که یک مادر و دختر بدن‌هایشان را عوض می‌کنند و آگاهی‌هایشان از خود فیزیکی‌شان جدا می‌شود؟ آیا مفهوم رویا دیدن را درک می‌کند - یا حتی خود خواب دیدن را گزارش می‌دهد؟ آیا می‌تواند تناسخ یا زندگی پس از مرگ را تصور کند؟

یک محدودیت بزرگ برای این رویکرد وجود دارد: به ظرفیت زبان نیاز دارد. نوزادان انسان و سگ‌ها، که هر دوی آن‌ها به طور گسترده باور می‌شود هوشیار هستند، احتمالاً نمی‌توانند این آزمون را پشت سر بگذارند، و یک هوش‌مصنوعی می‌تواند بدون استفاده از زبان اصلاً هوشیار شود. آزمایش هوش‌مصنوعی مبتنی بر زبان مانند GPT نیز غیرممکن است، زیرا در آموزش خود در معرض ایده هوشیاری قرار گرفته است. (از ChatGPT بخواهید که Freaky Friday را توضیح دهداین کار قابل احترامی است.) و از آنجایی که ما هنوز در مورد نحوه عملکرد سیستم‌های هوش‌مصنوعی پیشرفته اطلاعات کمی داریم، محافظت کامل از یک هوش‌مصنوعی در برابر چنین قرار گرفتن در معرض قرار گرفتن دشوار و حتی غیرممکن خواهد بود. زبان ما با واقعیت آگاهی ما آغشته است - کلماتی مانند "ذهن"، "روح[6]" و "خود[7]" به واسطه تجربه آگاهانه ما برای ما معنا پیدا می‌کنند. چه کسی می‌تواند بگوید که یک سیستم هوش‌مصنوعی بسیار باهوش و ناخودآگاه نمی‌تواند این موضوع را حل کند؟

اگر آزمایش اشنایدر بی‌خطا نباشد، یک گزینه دیگر باقی می‌ماند: باز کردن دستگاه. درک اینکه چگونه یک هوش‌مصنوعی در داخل کار می‌کند می‌تواند گامی اساسی در جهت تعیین آگاهانه بودن یا نبودن آن باشد، اگر بدانید چگونه آنچه را که به آن نگاه می‌کنید تفسیر کنید. انجام این کار مستلزم یک نظریه خوب آگاهی است.

چند دهه پیش، ممکن بود کاملاً گم شده باشیم. تنها نظریه‌های موجود از فلسفه سرچشمه می‌گرفتند، و مشخص نبود که چگونه می‌توان آن‌ها را در یک سیستم فیزیکی به کار برد. اما از آن زمان، محققانی مانند Koch و Mudrik به توسعه و اصلاح تعدادی از ایده‌ها کمک کردند که می‌توانند راهنمای مفیدی برای درک آگاهی مصنوعی باشند.

تئوری‌های متعددی ارائه شده است، و هیچ یک هنوز ثابت نشده است - و یا حتی یک نامزد پیشتاز در نظر گرفته نشده است. و آنها پیش‌بینی‌های کاملاً متفاوتی درباره هوش‌مصنوعی انجام می‌دهند.

برخی تئوری‌ها آگاهی را به عنوان یکی از ویژگی‌های نرم افزار مغز در نظر می‌گیرند: تنها چیزی که اهمیت دارد این است که مغز مجموعه درستی از وظایف را به روش درست انجام دهد. برای مثال، طبق نظریه فضای کاری سراسری، سیستم‌ها در صورتی آگاه هستند که معماری لازم را داشته باشند: انواع ماژول‌های مستقل، به‌علاوه یک «فضای کاری سراسری» که اطلاعات آن ماژول‌ها را می‌گیرد و بخشی از آن را برای پخش در کل سیستم انتخاب می‌کند.

تئوری‌های دیگر آگاهی را بیشتر به سخت‌افزار فیزیکی گره می‌زنند. تئوری اطلاعات یکپارچه پیشنهاد می‌کند که آگاهی یک سیستم به جزئیات خاص ساختار فیزیکی آن بستگی دارد - به‌ویژه اینکه چگونه وضعیت فعلی اجزای فیزیکی آن بر آینده آنها تأثیر می‌گذارد و گذشته آن‌ها را نشان می‌دهد. طبق IIT، سیستم‌های رایانه‌ای مرسوم و در نتیجه هوش‌مصنوعی کنونی، هرگز نمی‌توانند آگاه باشند ساختار علی درستی ندارند. (این نظریه اخیراً توسط برخی از محققان مورد انتقاد قرار گرفت، که فکر می‌کنند توجه زیادی به آن جلب شده است.)

آنیل ست[8]، استاد علوم اعصاب در دانشگاه ساسکس، به یک دلیل اصلی بیشتر با نظریه‌های مبتنی بر سخت افزار موافق است: او فکر می‌کند زیست شناسی مهم است. هر موجود آگاه که ما از آنها می‌شناسیم، مولکول‌های آلی را برای انرژی تجزیه می‌کند، برای حفظ یک محیط داخلی پایدار کار می‌کند، و اطلاعات را از طریق شبکه‌های نورون‌ها از طریق ترکیبی از سیگنال‌های شیمیایی و الکتریکی پردازش می‌کند. برخی از دانشمندان استدلال می‌کنند که اگر این در مورد همه موجودات آگاه صادق باشد، گمان اینکه هر یک از آن ویژگی‌ها، یا شاید حتی همه آنها، ممکن است برای آگاهی لازم باشد، کار زیادی نیست.

ست می‌گوید از آنجایی که او فکر می‌کند زیست‌شناسی برای آگاهی بسیار مهم است، زمان بیشتری را صرف نگرانی در مورد امکان هوشیاری در ارگانوئیدهای مغزی - توده‌های بافت عصبی رشد یافته در ظرف - می‌کند تا در هوش مصنوعی. او می‌گوید: «مسئله این است که ما نمی‌دانیم درست می‌گویم یا نه. "و من ممکن است اشتباه کنم."

او در این نگرش تنها نیست. هر متخصصی یک نظریه ترجیحی در مورد آگاهی دارد، اما هیچ‌کدام آن را به عنوان ایدئولوژی تلقی نمی‌کنند - همه آنها برای همیشه مراقب این احتمال هستند که از اسب اشتباهی حمایت کرده‌اند. در پنج سال گذشته، دانشمندان آگاهی شروع به کار با یکدیگر روی مجموعه‌ای از «همکاری‌های متخاصم» کرده‌اند، که در آن حامیان نظریه‌های مختلف گرد هم می‌آیند تا آزمایش‌های علوم اعصاب را طراحی کنند که می‌تواند به آزمایش آنها در برابر یکدیگر کمک کند. محققان پیش از موعد در مورد اینکه کدام الگوهای نتایج از کدام نظریه پشتیبانی می‌کند، توافق کردند. سپس آزمایش‌ها را اجرا می‌کنند و می‌بینند چه اتفاقی می‌افتد.

در ماه ژوئن، Mudrik، Koch، Chalmers و گروه بزرگی از همکاران نتایج یک همکاری متخاصم را منتشر کردند که نظریه فضای کاری سراسری را در برابر نظریه اطلاعات یکپارچه قرار می‌داد. هیچ کدام از این دو نظریه به طور کامل در صدر قرار نگرفتند. اما مودریک می‌گوید که این فرآیند هنوز مثمر ثمر بود: واداشتن حامیان هر نظریه به پیش‌بینی‌های ملموس به دقیق‌تر و مفیدتر شدن نظریه‌ها کمک کرد. او می‌گوید: «همه تئوری‌هایی در حال پیشرفت هستند.

در همان زمان، مودریک در تلاش است تا بفهمد این تنوع نظریه‌ها چه معنایی برای هوش‌مصنوعی دارد. او با یک تیم بین رشته‌ای از فیلسوفان، دانشمندان کامپیوتر و دانشمندان علوم اعصاب کار می‌کند که اخیراً مقاله‌ای را منتشر کرده‌اند که در آن توصیه‌های عملی در مورد تشخیص هوش‌مصنوعی ارائه می‌شود. در این مقاله، تیم از نظریه‌های مختلفی برای ساختن نوعی «کارت گزارش» آگاهی استفاده می‌کند - فهرستی از نشانگرهایی که نشان می‌دهند هوش‌مصنوعی هوشیار است، با این فرض که یکی از آن نظریه‌ها درست است. این نشانگرها شامل داشتن ارتباطات بازخوردی خاص، استفاده از یک فضای کاری جهانی، تعقیب انعطاف‌پذیر اهداف و تعامل با یک محیط خارجی (اعم از واقعی یا مجازی) است.

در واقع، این استراتژی تشخیص می‌دهد که تئوری‌های اصلی آگاهی تا حدی شانسی برای درست شدن دارند و بنابراین اگر تئوری‌های بیشتری موافق باشند که هوش‌مصنوعی هوشیار است، احتمال بیشتری وجود دارد که واقعاً آگاه باشد. به همین ترتیب، سیستمی که فاقد همه آن نشانگرها باشد، تنها زمانی می‌تواند آگاه باشد که نظریه‌های فعلی ما بسیار اشتباه باشند. LLMهایی مانند LaMDA در حال حاضر اینجا هستند: آنها نوع مناسبی از اتصالات بازخورد را ندارند، از فضاهای کاری سراسری استفاده می‌کنند یا به نظر می‌رسد که نشانگرهای آگاهی دیگری ندارند.

با این حال، مسئله آگاهی به کمیته این است که این وضعیت دوام نخواهد داشت. به گفته نویسندگان مقاله سفید، هیچ مانع تکنولوژیکی بزرگی بر سر راه ساخت سیستم‌های هوش‌مصنوعی که امتیاز بالایی در کارت گزارش هوشیاری آن‌ها داشته باشد، وجود ندارد. به زودی، ما مستقیماً با یک سؤال علمی تخیلی روبرو خواهیم شد: با یک ماشین بالقوه آگاه چه باید کرد؟

در سال 1989، سال‌ها قبل از اینکه عصب‌شناسی آگاهی به‌واقع خودش را پیدا کند، Star Trek: The Next Generation قسمتی با عنوان «معیار یک مرد[9]» را پخش کرد. این اپیزود بر شخصیت دیتا متمرکز است، اندرویدی که بیشتر زمان نمایش را صرف مبارزه با انسانیت مورد مناقشه خود می‌کند. در این قسمت خاص، یک دانشمند می‌خواهد به زور داده‌ها را جدا کند تا بفهمد چگونه کار می‌کند. دیتا که نگران این بود که جداسازی مونتاژ بتواند به طور موثری او را بکشد، امتناع می‌کند. و کاپیتان دیتا، پیکارد، باید در دادگاه از حق خود برای امتناع از این رویه دفاع کند.

پیکارد هرگز ثابت نمی‌کند که دیتا آگاه است. در عوض، او نشان می‌دهد که هیچ‌کس نمی‌تواند هوشیار بودن دیتا را رد کند، بنابراین خطر آسیب رساندن به دیتا، و محکوم کردن بالقوه اندرویدهایی که پس از او به بردگی می‌آیند، بسیار زیاد است. این یک راه‌حل وسوسه انگیز برای معمای آگاهی مشکوک هوش‌مصنوعی است: با هر سیستم بالقوه هوشیار به گونه‌ای رفتار کنید که گویی واقعاً آگاه است و از خطر آسیب رساندن به موجودی که واقعاً می‌تواند رنج بکشد اجتناب کنید.

رفتار کردن با داده‌ها مانند یک شخص ساده است: او می تواند به راحتی خواسته‌ها و نیازهای خود را بیان کند، و این خواسته‌ها و نیازها شبیه به همتایان انسانی او، به طور کلی هستند. رابرت لانگ، فلسفی مرکز ایمنی هوش‌مصنوعی در سانفرانسیسکو، که یکی از نویسندگان اصلی این مقاله است، می‌گوید: اما محافظت از یک هوش‌مصنوعی در دنیای واقعی از رنج می‌تواند بسیار دشوارتر باشد. او می‌گوید: «در مورد حیوانات، ویژگی مفیدی وجود دارد که آنها اساساً چیزهایی مشابه ما می‌خواهند. "در مورد هوش‌مصنوعی فهمیدن این موضوع به نوعی سخت است." حفاظت از هوش‌مصنوعی نه تنها به تئوری هوشیاری هوش‌مصنوعی نیاز دارد، بلکه به نظریه‌ای درباره لذت‌ها و دردهای هوش‌مصنوعی، خواسته‌ها و ترس‌های هوش‌مصنوعی نیاز دارد.

"در مورد حیوانات، ویژگی مفیدی وجود دارد که آنها اساساً چیزهایی مشابه ما می‌خواهند. به نوعی سخت است که بدانیم در مورد هوش‌مصنوعی چیست."

رابرت لانگ، فلسفی، مرکز ایمنی هوش‌مصنوعی در سانفرانسیسکو

و این رویکرد بدون هزینه نیست. در پیشتازان فضا، دانشمندی که می‌خواهد دیتا را جدا کند، امیدوار است که اندرویدهای بیشتری مانند او بسازد که ممکن است به‌جای پرسنل دیگر به مأموریت‌های پرخطر فرستاده شوند. برای بیننده ای که دیتا را یک شخصیت آگاه مانند سایر افراد نمایش می‌بیند، این پیشنهاد وحشتناک است. اما اگر داده‌ها صرفاً شبیه‌سازی متقاعدکننده‌ای از یک انسان بود، قرار دادن یک فرد در معرض خطر به جای او غیر وجدان‌آمیز بود.

گسترش مراقبت از موجودات دیگر به معنای محافظت از آنها در برابر آسیب است و این امر انتخاب‌هایی را که انسان‌ها می‌توانند از نظر اخلاقی انجام دهند محدود می‌کند. لانگ می‌گوید: «من در مورد سناریوهایی که بیش از حد به حیوانات اهمیت می‌دهیم، نگران نیستم. برای پایان دادن به کشاورزی کارخانه‌ای، نکات منفی کمی وجود دارد. او می‌افزاید: «اما با سیستم‌های هوش‌مصنوعی، من فکر می‌کنم اگر بیش از حد آگاهی را نسبت دهیم، خطرات زیادی وجود دارد.» سیستم‌های هوش‌مصنوعی ممکن است دچار اختلال شوند و باید خاموش شوند. آنها ممکن است نیاز به آزمایش‌های ایمنی دقیق داشته باشند. اگر هوش‌مصنوعی بی‌جان باشد، اینها تصمیمات آسانی هستند و اگر نیازهای هوش‌مصنوعی باید در نظر گرفته شوند، باتلاق‌های فلسفی هستند.

ست - که فکر می‌کند هوش‌مصنوعی آگاهانه حداقل برای آینده قابل پیش‌بینی نسبتاً بعید است - با این وجود نگران این است که امکان هوشیاری هوش‌مصنوعی چه معنایی برای انسان دارد. او می‌گوید: «این نحوه توزیع منابع محدودمان برای مراقبت از چیزها را تغییر خواهد داد. ممکن است برای آینده مسئله‌ای به نظر برسد. اما درک هوشیاری هوش مصنوعی اکنون با ما همراه است: بلیک لمواین برای هوش مصنوعی که معتقد بود هوشیار است، ریسک شخصی کرد و شغل خود را از دست داد. چند نفر دیگر ممکن است زمان، پول و روابط شخصی را فدای سیستم‌های کامپیوتری بی‌جان کنند؟

دانستن این که دو خط در توهم مولر- لیر[10] دقیقاً یکسان هستند، مانع از آن نمی‌شود که یکی را کوتاهتر از دیگری بدانیم. به طور مشابه، دانستن اینکه GPT آگاهانه نیست، این توهم را تغییر نمی‌دهد که شما با موجودی با دیدگاه، نظرات و شخصیت صحبت می‌کنید.

حتی ربات‌های گفتگوی بدون استخوان نیز می‌توانند کشش عجیبی داشته باشند: یک برنامه ساده به نام ELIZA که در دهه 1960 برای شبیه‌سازی گفتار درمانی ساخته شد، بسیاری از کاربران را متقاعد کرد که قادر به احساس و درک است. درک هوشیاری و واقعیت آگاهی به خوبی همسو نیستند و این اختلاف زمانی بدتر می‌شود که سیستم‌های هوش‌مصنوعی قادر به درگیر شدن در مکالمات واقعی‌تر شوند. ست می‌گوید: «ما نمی‌توانیم از درک آن‌ها به‌عنوان تجربه‌های آگاهانه اجتناب کنیم، همان‌طور که برخی از توهمات بصری از نظر شناختی برای ما غیرقابل نفوذ هستند». همانطور که دانستن این موضوع که دو خط در توهم مولر- لیر دقیقاً یکسان هستند، مانع از این نمی‌شود که یکی را کوتاه‌تر از دیگری درک کنیم، دانستن اینکه GPT هوشیار نیست، این توهم را تغییر نمی‌دهد که شما داشتن دیدگاه، نظر و شخصیت با آن صحبت می‌کنید.

در سال 2015، سال‌ها قبل از اینکه این نگرانی‌ها مطرح شود، فیلسوفان اریک شویتزگبل و مارا گارزا مجموعه‌ای از توصیه‌ها را برای محافظت در برابر چنین خطراتی تدوین کردند. یکی از توصیه‌های آن‌ها، که آن را «سیاست طراحی همسویی احساسی» نامیدند، استدلال می‌کرد که هر هوش‌مصنوعی ناخودآگاه باید عمداً طراحی شود تا کاربران باور نکنند که هوشیار است. شرکت‌ها گام‌های کوچکی در این راستا برداشته‌اند - ChatGPT اگر از آن بپرسید که آیا آگاهانه است یا خیر، یک انکار رمزگذاری‌شده را نشان می‌دهد. اما چنین پاسخ‌هایی باعث برهم زدن توهم کلی نمی‌شود.

شویتزگبل[11]، که استاد فلسفه در دانشگاه کالیفرنیا، ریورساید است، می‌خواهد از هرگونه ابهام دوری کند. در مقاله سال 2015، او و گارزا همچنین «سیاست میانی حذف شده» خود را پیشنهاد کردند - اگر مشخص نیست که یک سیستم هوش‌مصنوعی هوشیار خواهد بود، آن سیستم نباید ساخته شود. در عمل، این بدان معنی است که همه کارشناسان مربوطه باید توافق کنند که یک هوش‌مصنوعی آینده نگر به احتمال زیاد آگاه نیست (حکم آنها برای LLMهای فعلی) یا به احتمال زیاد آگاه است. شویتزگبل می‌گوید: «کاری که ما نمی‌خواهیم انجام دهیم این است که مردم را گیج کنیم.

پرهیز از ناحیه خاکستری آگاهی مورد مناقشه هم خطرات آسیب رساندن به هوش‌مصنوعی هوشیار و هم از جنبه‌های منفی تلقی یک ماشین بی‌جان به عنوان یک دستگاه هوشیار کاملاً از بین می‌رود. مسئله اینجاست که انجام این کار ممکن است واقع بینانه نباشد. بسیاری از محققان - مانند Rufin VanRullen، مدیر تحقیقاتی در مرکز ملی فرانسوی de la Recherche Scientifique، که اخیراً بودجه لازم برای ساخت یک هوش‌مصنوعی با فضای کاری سراسری را به دست آورده است - اکنون به طور فعال در حال کار هستند تا هوش‌مصنوعی را با زیربنای بالقوه آگاهی اعطا کنند.

ون‌رالن[12] می‌گوید نقطه ضعف توقف در ساخت سیستم‌های بالقوه آگاه این است که سیستم‌هایی مانند آنچه که او می‌خواهد ایجاد کند ممکن است مؤثرتر از هوش‌مصنوعی فعلی باشد. او می‌گوید: «هر وقت از عملکرد فعلی هوش‌مصنوعی ناامید می‌شویم، همیشه به این دلیل است که از آنچه مغز قادر به انجام آن است عقب مانده است. بنابراین لزوماً هدف من ایجاد یک هوش‌مصنوعی آگاهانه نیست، بلکه هدف بسیاری از افراد در هوش‌مصنوعی در حال حاضر حرکت به سمت این قابلیت‌های استدلالی پیشرفته است. چنین قابلیت‌های پیشرفته‌ای می‌تواند مزایای واقعی را به همراه داشته باشد: در حال حاضر، داروهای طراحی شده با هوش‌مصنوعی در آزمایشات بالینی آزمایش می‌شوند. غیرقابل تصور نیست که هوش‌مصنوعی در منطقه خاکستری بتواند جان افراد را نجات دهد.

ون رالن به خطرات هوش مصنوعی آگاهانه حساس است - او با لانگ و مودریک روی کاغذ سفید در مورد تشخیص هوشیاری در ماشین‌ها کار کرد. اما او می گوید که همین خطرات است که تحقیقات او را مهم می‌کند. شانس این است که هوش‌مصنوعی آگاه، ابتدا از پروژه‌ای قابل مشاهده و با بودجه عمومی مانند پروژه او پدیدار نشود. ممکن است به خوبی جیب‌های عمیق شرکتی مانند گوگل یا OpenAI را بگیرد. ون رالن می‌گوید، این شرکت‌ها به احتمال زیاد از معضلات اخلاقی که یک سیستم آگاهانه معرفی می‌کند استقبال نمی‌کنند. «آیا این بدان معناست که وقتی در آزمایشگاه اتفاق می‌افتد، فقط وانمود می‌کنند که این اتفاق نیفتاده است؟ آیا این بدان معناست که ما از آن خبر نداریم؟» او می گوید. "من آن را بسیار نگران کننده می‌دانم."

او می‌گوید که دانشگاهیان مانند او می‌توانند با دریافت درک بهتر از نحوه عملکرد خود هوشیاری، هم در انسان و هم در ماشین، به کاهش این خطر کمک کنند. این دانش می‌تواند تنظیم کننده‌ها را قادر سازد تا به طور مؤثرتری بر شرکت‌هایی نظارت کنند که به احتمال زیاد شروع به فعالیت در ایجاد ذهن مصنوعی می‌کنند. هرچه آگاهی را بیشتر درک کنیم، آن ناحیه خاکستری مخاطره‌آمیز کوچک‌تر می‌شود و شانس بهتری برای دانستن اینکه آیا در آن هستیم یا نه، بیشتر می‌شود.

به نوبه خود، شویتزگبل ترجیح می‌دهد ما به طور کامل از منطقه خاکستری فاصله بگیریم. اما با توجه به بزرگی عدم قطعیت‌های موجود، او اذعان می‌کند که این امید احتمالاً غیرواقعی است به‌ویژه اگر هوش‌مصنوعی آگاهانه سودآور باشد. و هنگامی که در منطقه خاکستری قرار گرفتیم - زمانی که باید منافع موجودات آگاه به بحث را جدی بگیریم - در مناطق دشوارتر نیز پیمایش خواهیم کرد و با مسائل اخلاقی با پیچیدگی بی‌سابقه بدون نقشه راه روشن برای حل آنها مبارزه خواهیم کرد. این بر عهده محققان است، از فیلسوفان گرفته تا دانشمندان علوم اعصاب و دانشمندان کامپیوتر، که وظیفه بزرگ ترسیم این نقشه را بر عهده بگیرند.



[1] David Chalmers

[2] Neural Information Processing Systems

[3] Blake Lemoine

[4] Large Language Models

[5] Liad Mudrik

[6] Soul

[7] Self

[8] Anil Seth

[9] The Measure of a Man

[10] Muller-Lyer

[11] Schwitzgebel

[12] VanRullen

نظرات 0 + ارسال نظر
ایمیل شما بعد از ثبت نمایش داده نخواهد شد