دیوید چالمرز[1] انتظار دعوتی را که در سپتامبر سال گذشته دریافت کرد، نداشت. چالمرز بهعنوان یک مرجع پیشرو در آگاهی، مرتباً در سراسر جهان میچرخد و در دانشگاهها و جلسات آکادمیک برای مخاطبان شیفتهی فیلسوفان سخنرانی میکند - از آن دسته افرادی که ممکن است ساعتها در مورد واقعی بودن دنیای بیرون از ذهنشان بحث کنند و سپس با دلسردی درباره بقیه صحبت کنند. از روزشان با این حال، این درخواست اخیر از یک منبع شگفتانگیز آمده است: سازماندهندگان کنفرانس سیستمهای پردازش اطلاعات عصبی[2] (NeurIPS)، گردهمایی سالانه درخشانترین ذهنها در هوش مصنوعی.
کمتر از شش ماه قبل از کنفرانس، یک مهندس به نام بلیک لمواین[3] که در آن زمان در گوگل کار میکرد، ادعای خود را مبنی بر اینکه LaMDA، یکی از سیستمهای هوشمصنوعی این شرکت، به هوش آمده است، اعلام کرد. ادعاهای لمواین به سرعت در مطبوعات رد شد، و او به طور خلاصه اخراج شد، اما جن به این راحتی به بطری بازگشت - به خصوص پس از انتشار ChatGPT در نوامبر 2022. ناگهان برای هر کسی ممکن شد یک گفتگوی پیچیده با یک عاملمصنوعی مودب و خلاق انجام دهد.
چالمرز یک انتخاب بسیار معقول برای صحبت در مورد آگاهی هوشمصنوعی بود. او دکترای خود را در رشته فلسفه در آزمایشگاه هوشمصنوعی دانشگاه ایندیانا به دست آورده بود، جایی که او و همکاران دانشمند کامپیوترش وقت استراحت خود را صرف بحث در مورد اینکه آیا ممکن است روزی ماشینها ذهن خود را داشته باشند. او در سال 1996 کتاب خود، ذهن آگاه، یک فصل کامل را صرف این بحث کرد که آگاهی مصنوعی ممکن است.
چالمرز میگوید: اگر او در دهه 90 میتوانست با سیستمهایی مانند LaMDA و ChatGPT تعامل داشته باشد، قبل از اینکه کسی بداند چنین چیزی چگونه میتواند کار کند، فکر میکرد احتمال زیادی وجود دارد که هوشیار باشند. اما هنگامی که او در مقابل انبوهی از شرکت کنندگان NeurIPS در سالن همایش غارنشین نیواورلئان با پوشیدن ژاکت چرمی علامت تجاری خود ایستاد، ارزیابی متفاوتی ارائه کرد. بله، مدلهای بزرگ زبان[4] - سیستمهایی که بر روی مجموعههای عظیم متن آموزش داده شدهاند تا از نوشتههای انسانی تا حد امکان تقلید کنند - چشمگیر هستند. اما، او گفت، آنها فاقد بسیاری از شرایط بالقوه برای آگاهی هستند تا باور کنیم که آنها واقعاً جهان را تجربه میکنند.
"آگاهی یک چالش منحصر به فرد در تلاش ما برای مطالعه آن ایجاد میکند، زیرا تعریف آن دشوار است."
لیاد مودریک[5]، عصب شناس، دانشگاه تل آویو
با این حال، با سرعت سرسامآور توسعه هوشمصنوعی، همه چیز میتواند ناگهان تغییر کند. چالمرز برای مخاطبان ریاضیاش، کاملا مشخص شد: او تخمین میزند که شانس توسعه هوشمصنوعی هوشیار در 10 سال آینده بیش از یک در پنج سال است.
چالمرز میگوید که بسیاری از مردم پیشنهاد او را مضحک رد کردند: «یعنی مطمئنم که برخی از مردم چنین واکنشی داشتند، اما آنها کسانی نبودند که با من صحبت میکردند.» در عوض، او چند روز بعد را در گفتگو با کارشناسان هوشمصنوعی گذراند که احتمالاتی را که او توضیح داده بود بسیار جدی گرفتند. برخی با شور و شوق از مفهوم ماشینهای آگاه به چالمرز آمدند. با این حال، دیگران از آنچه او توصیف کرده بود وحشت کردند. اگر هوشمصنوعی هوشیار بود، آنها استدلال میکردند - اگر میتوانست از منظر شخصی خود به دنیا نگاه کند، نه صرفاً ورودیها را پردازش کند، بلکه آنها را نیز تجربه کند - شاید آسیب ببیند.
هوشمصنوعی فقط یک پازل فکری شیطانی نیست. این یک مسئله اخلاقی سنگین با عواقب بالقوه وخیم است. قادر به شناسایی یک هوشمصنوعی آگاهانه نیستید، و ممکن است ناخواسته موجودی را که علایقش باید مهم باشد، تحت سلطه یا حتی شکنجه قرار دهید. هوشمصنوعی ناخودآگاه را با هوشمصنوعی اشتباه بگیرید، و به خاطر یک توده سیلیکون و کد نااندیشیده و بی احساس، در خطر به خطر انداختن امنیت و شادی انسان هستید. انجام هر دو اشتباه آسان است. لیاد مودریک، عصب شناس دانشگاه تل آویو که از اوایل دهه 2000 در مورد آگاهی تحقیق کرده است، می گوید: «آگاهی چالشی منحصر به فرد در تلاش ما برای مطالعه آن ایجاد میکند، زیرا تعریف آن دشوار است. "این ذاتا ذهنی است."
در طول چند دهه گذشته، یک جامعه تحقیقاتی کوچک به شدت به این سوال که آگاهی چیست و چگونه کار میکند، حمله کرده است. این تلاش باعث پیشرفت واقعی در مورد چیزی شده است که زمانی مسئلهی غیر قابل حل به نظر میرسید. اکنون، با پیشرفت سریع فناوری هوشمصنوعی، این بینشها میتوانند تنها راهنمای ما را برای آبهای آزمایشنشده و مملو از اخلاقی آگاهی مصنوعی ارائه دهند.
مودریک میگوید: «اگر ما بهعنوان یک رشته بتوانیم از نظریههایی که داریم و یافتههایی که داریم استفاده کنیم تا به یک آزمون خوب برای آگاهی برسیم، احتمالاً یکی از مهمترین کمکها خواهد بود. می توانستیم بدهیم.»
وقتی مودریک تحقیقات خود را درباره آگاهی توضیح میدهد، با یکی از چیزهای بسیار مورد علاقه خود شروع میکند: شکلات. قرار دادن یک قطعه در دهان باعث ایجاد سمفونی از رویدادهای عصبی-بیولوژیکی میشود – گیرندههای قند و چربی زبان شما مسیرهای متصل به مغز را فعال میکنند، مجموعهای از سلولها در ساقه مغز غدد بزاقی شما را تحریک میکنند و نورونها در عمق سر شما دوپامین شیمیایی را آزاد میکنند. با این حال، هیچ یک از این فرآیندها، بیرون آوردن یک مربع شکلات از بسته فویل آن و اجازه دادن به آن در دهان ذوب شدن، نشان نمیدهد. آنچه که من سعی در درک آن دارم این است که مغز چه چیزی را به ما امکان میدهد نه تنها اطلاعات را پردازش کنیم - که به خودی خود یک چالش بزرگ و یک دستاورد شگفت انگیز برای مغز است - بلکه به تجربه اطلاعاتی که در حال پردازش هستیم نیز میباشد. مودریک میگوید.
از نظر حرفهای، مطالعه پردازش اطلاعات انتخاب سادهتری برای مودریک بود. آگاهی مدتهاست که موضوعی به حاشیه رانده شده در علوم اعصاب بوده است که در بهترین حالت غیر جدی و در بدترین حالت غیرقابل حل است. مدخل «آگاهی» در ویرایش سال 1996 فرهنگ لغت بینالمللی روانشناسی میگوید: «پدیدهای جذاب اما گریزان». "هیچ چیز ارزش خواندن روی آن نوشته نشده است."
مودریک منصرف نشد. از سالهای لیسانس در اوایل دهه ۲۰۰۰، او میدانست که نمیخواهد چیزی جز آگاهی تحقیق کند. او میگوید: «ممکن است این معقولترین تصمیمی نباشد که به عنوان یک محقق جوان میتوان گرفت، اما من نمیتوانستم جلوی آن را بگیرم. "من نمی توانستم از آن سیر شوم." او دو مدرک دکترا گرفت - یکی در علوم اعصاب، دیگری در فلسفه - در عزم خود برای رمزگشایی از ماهیت تجربه انسانی.
همانطور که یک موضوع لغزنده میتواند آگاهی باشد، تعیین آن غیرممکن نیست - به عبارت سادهتر، توانایی تجربه چیزها است. اغلب با عباراتی مانند «احساس» و «خودآگاهی» اشتباه گرفته میشود، اما طبق تعاریفی که بسیاری از متخصصان استفاده میکنند، هوشیاری پیشنیاز برای آن تواناییهای پیچیدهتر دیگر است. برای اینکه یک موجود حساس باشد، باید بتواند تجربیات مثبت و منفی - به عبارت دیگر، لذتها و دردها - داشته باشد. و خودآگاه بودن نه تنها به معنای داشتن یک تجربه بلکه دانستن این است که شما در حال داشتن یک تجربه هستید.
مودریک در آزمایشگاه خود نگران احساسات و خودآگاهی نیست. او علاقهمند به مشاهده اتفاقاتی است که هنگام دستکاری تجربه آگاهانه افراد در مغز اتفاق میافتد. این کار در اصل آسان است. به کسی یک تکه بروکلی بدهید تا بخورد، و این تجربه با خوردن یک تکه شکلات بسیار متفاوت خواهد بود و احتمالاً منجر به یک اسکن مغزی متفاوت خواهد شد. مسئله این است که این تفاوتها قابل تفسیر نیستند. تشخیص اینکه کدام یک با تغییرات در اطلاعات مرتبط است - بروکلی و شکلات گیرنده های طعم بسیار متفاوتی را فعال میکنند - و نشان دهنده تغییرات در تجربه آگاهانه هستند غیرممکن است.
ترفند این است که بدون تغییر محرک، تجربه را تغییر دهید، مانند دادن یک تکه شکلات به کسی و سپس چرخاندن سوئیچ برای ایجاد حس خوردن کلم بروکلی. این با سلیقه امکانپذیر نیست، اما با بینایی ممکن است. در یک رویکرد پرکاربرد، دانشمندان از مردم میخواهند که به طور همزمان به دو تصویر مختلف نگاه کنند، یکی با هر چشم. اگرچه چشمها هر دو تصویر را میگیرند، درک هر دو در یک زمان غیرممکن است، بنابراین سوژهها اغلب گزارش میدهند که تجربه بصری آنها «تغییر» میکند: ابتدا یک تصویر را میبینند و سپس بهطور خود به خود، دیگری را میبینند. با ردیابی فعالیت مغز در طی این چرخشها در آگاهی آگاهانه، دانشمندان میتوانند مشاهده کنند که وقتی اطلاعات دریافتی ثابت میماند اما تجربه آن تغییر میکند چه اتفاقی میافتد.
با این رویکردها و سایر رویکردها، مودریک و همکارانش توانستهاند حقایق ملموسی در مورد نحوه عملکرد هوشیاری در مغز انسان ایجاد کنند. مخچه، ناحیهای از مغز در قاعده جمجمه که شبیه به یک مشت ماکارونی موی فرشته است، به نظر میرسد هیچ نقشی در تجربه خودآگاه ایفا نمیکند، اگرچه برای کارهای حرکتی ناخودآگاه مانند دوچرخه سواری بسیار مهم است. از سوی دیگر، ارتباطات بازخورد - برای مثال، ارتباطاتی که از "بالاتر" مناطق شناختی مغز به آنهایی که در پردازش حسی اساسیتر دخیل هستند - برای آگاهی ضروری به نظر میرسند. (به هر حال، این یک دلیل خوب برای شک در آگاهی LLMها است: آنها فاقد ارتباطات بازخورد قابل توجهی هستند.)
یک دهه پیش، گروهی از دانشمندان علوم اعصاب ایتالیایی و بلژیکی موفق به ابداع آزمایشی برای هوشیاری انسان شدند که از تحریک مغناطیسی ترانس کرانیال (TMS) استفاده میکند، یک شکل غیرتهاجمی از تحریک مغزی که با نگه داشتن یک عصای مغناطیسی شکل هشت در نزدیکی سر فرد اعمال میشود. . تنها از طریق الگوهای حاصل از فعالیت مغز، این تیم قادر به تشخیص افراد هوشیار از افرادی بود که تحت بیهوشی یا عمیقاً خواب بودند، و حتی میتوانستند تفاوت بین حالت نباتی (جایی که فردی بیدار است اما هوشیار نیست) و قفل شده را تشخیص دهند. در سندرم (که در آن بیمار هوشیار است اما اصلا نمیتواند حرکت کند).
این یک گام بزرگ رو به جلو در تحقیقات هوشیاری است، اما برای پرسش هوشمصنوعی آگاهانه معنی کمی دارد: مدلهای GPT OpenAI مغزی ندارند که بتوان توسط یک گرز TMS تحریک شود. برای آزمایش هوشیاری هوشمصنوعی، شناسایی ساختارهایی که باعث ایجاد هوشیاری در مغز انسان میشوند کافی نیست. شما باید بدانید که چرا آن ساختارها به آگاهی کمک میکنند، به گونهای که به اندازه کافی دقیق و کلی است که برای هر سیستمی، چه انسان و چه غیر از آن قابل اجرا باشد.
کریستف کخ، رئیس سابق مؤسسه آلن و یک محقق تأثیرگذار آگاهی میگوید: «در نهایت، شما به یک نظریه نیاز دارید. "شما دیگر نمیتوانید فقط به شهود خود وابسته باشید. شما به یک نظریه بنیادی نیاز دارید که به شما بگوید آگاهی چیست، چگونه وارد جهان میشود و چه کسی آن را دارد و چه کسی ندارد.»
در اینجا یک نظریه در مورد چگونگی عملکرد آن آزمون تورنسل برای آگاهی وجود دارد: هر موجودی که به اندازه کافی باهوش است، که قادر به پاسخگویی موفقیت آمیز به طیف وسیعی از زمینهها و چالشها است، باید آگاه باشد. ظاهراً این یک نظریه پوچ نیست. ما انسانها تا آنجا که میدانیم باهوشترین مغزها را در اطراف خود داریم و قطعاً آگاه هستیم. به نظر میرسد حیوانات باهوشتر نیز هوشیارتر هستند - اتفاق نظر بسیار بیشتری در مورد هوشیاری شامپانزهها نسبت به مثلاً خرچنگها وجود دارد.
اما هوشیاری و هوش یکی نیستند. وقتی مودریک تصاویری را روی سوژههای آزمایشیاش فلش میکند، از آنها نمیخواهد در مورد چیزی فکر کنند یا تواناییهای حل مسئلهشان را آزمایش نمیکنند. حتی خرچنگی که در کف اقیانوس میچرخد، بدون آگاهی از گذشتهاش یا فکری درباره آیندهاش، اگر میتوانست لذت یک لقمه میگوی خوشمزه یا درد پنجهای زخمی را تجربه کند، همچنان هوشیار است.
سوزان اشنایدر، مدیر مرکز ذهن آینده در دانشگاه آتلانتیک فلوریدا، فکر میکند که هوش مصنوعی با کنار گذاشتن کامل هوشیاری میتواند به ارتفاعات بالاتری از هوش برسد. فرآیندهای آگاهانه مانند نگه داشتن چیزی در حافظه کوتاه مدت بسیار محدود است - ما فقط میتوانیم به چند چیز در یک زمان توجه کنیم و اغلب برای انجام کارهای ساده مانند به خاطر سپردن یک شماره تلفن به اندازه کافی برای تماس با آن تلاش میکنیم. بلافاصله مشخص نیست که هوشمصنوعی چه چیزی از هوشیاری به دست میآورد، به خصوص با توجه به دستاوردهای چشمگیری که چنین سیستمهایی بدون آن توانستهاند به دست آورند.
از آنجایی که تکرارهای بعدی GPT خود را بیش از پیش باهوشتر نشان میدهد – هر چه بیشتر و بیشتر قادر به پاسخگویی به طیف وسیعی از خواستهها، از آزمون وکالت گرفته تا ساختن یک وب سایت از ابتدا هستند – موفقیت آنها به خودی خود نمیتواند به عنوان یک تلقی شود. شواهدی از آگاهی آنها حتی ماشینی که رفتار غیر قابل تشخیصی از انسان دارد، لزوماً از چیزی آگاه نیست.
درک اینکه چگونه یک هوش مصنوعی در داخل کار میکند میتواند یک گام اساسی برای تعیین اینکه آیا هوشیار است یا نه.
با این حال اشنایدر امید خود را در آزمایشات از دست نداده است. او به همراه ادوین ترنر، فیزیکدان پرینستون، آنچه را که «آزمون هوشیاری مصنوعی» مینامد، فرموله کرده است. انجام آن آسان نیست: این کار مستلزم جداسازی یک عامل هوشمصنوعی از هرگونه اطلاعات مربوط به آگاهی در طول آموزش است. (این مهم است تا مانند LaMDA نتواند فقط عبارات انسانی در مورد آگاهی را طوطی وار بیان کند.) سپس، هنگامی که سیستم آموزش دید، آزمایشگر از آن سؤالاتی میپرسد که فقط در صورتی میتواند به آنها پاسخ دهد که در مورد هوشیاری بداند - دانش فقط میتواند. از خود آگاه بودن به دست آوردهاند. آیا میتواند داستان فیلم «جمعه عجیب» را بفهمد، جایی که یک مادر و دختر بدنهایشان را عوض میکنند و آگاهیهایشان از خود فیزیکیشان جدا میشود؟ آیا مفهوم رویا دیدن را درک میکند - یا حتی خود خواب دیدن را گزارش میدهد؟ آیا میتواند تناسخ یا زندگی پس از مرگ را تصور کند؟
یک محدودیت بزرگ برای این رویکرد وجود دارد: به ظرفیت زبان نیاز دارد. نوزادان انسان و سگها، که هر دوی آنها به طور گسترده باور میشود هوشیار هستند، احتمالاً نمیتوانند این آزمون را پشت سر بگذارند، و یک هوشمصنوعی میتواند بدون استفاده از زبان اصلاً هوشیار شود. آزمایش هوشمصنوعی مبتنی بر زبان مانند GPT نیز غیرممکن است، زیرا در آموزش خود در معرض ایده هوشیاری قرار گرفته است. (از ChatGPT بخواهید که Freaky Friday را توضیح دهد—این کار قابل احترامی است.) و از آنجایی که ما هنوز در مورد نحوه عملکرد سیستمهای هوشمصنوعی پیشرفته اطلاعات کمی داریم، محافظت کامل از یک هوشمصنوعی در برابر چنین قرار گرفتن در معرض قرار گرفتن دشوار و حتی غیرممکن خواهد بود. زبان ما با واقعیت آگاهی ما آغشته است - کلماتی مانند "ذهن"، "روح[6]" و "خود[7]" به واسطه تجربه آگاهانه ما برای ما معنا پیدا میکنند. چه کسی میتواند بگوید که یک سیستم هوشمصنوعی بسیار باهوش و ناخودآگاه نمیتواند این موضوع را حل کند؟
اگر آزمایش اشنایدر بیخطا نباشد، یک گزینه دیگر باقی میماند: باز کردن دستگاه. درک اینکه چگونه یک هوشمصنوعی در داخل کار میکند میتواند گامی اساسی در جهت تعیین آگاهانه بودن یا نبودن آن باشد، اگر بدانید چگونه آنچه را که به آن نگاه میکنید تفسیر کنید. انجام این کار مستلزم یک نظریه خوب آگاهی است.
چند دهه پیش، ممکن بود کاملاً گم شده باشیم. تنها نظریههای موجود از فلسفه سرچشمه میگرفتند، و مشخص نبود که چگونه میتوان آنها را در یک سیستم فیزیکی به کار برد. اما از آن زمان، محققانی مانند Koch و Mudrik به توسعه و اصلاح تعدادی از ایدهها کمک کردند که میتوانند راهنمای مفیدی برای درک آگاهی مصنوعی باشند.
تئوریهای متعددی ارائه شده است، و هیچ یک هنوز ثابت نشده است - و یا حتی یک نامزد پیشتاز در نظر گرفته نشده است. و آنها پیشبینیهای کاملاً متفاوتی درباره هوشمصنوعی انجام میدهند.
برخی تئوریها آگاهی را به عنوان یکی از ویژگیهای نرم افزار مغز در نظر میگیرند: تنها چیزی که اهمیت دارد این است که مغز مجموعه درستی از وظایف را به روش درست انجام دهد. برای مثال، طبق نظریه فضای کاری سراسری، سیستمها در صورتی آگاه هستند که معماری لازم را داشته باشند: انواع ماژولهای مستقل، بهعلاوه یک «فضای کاری سراسری» که اطلاعات آن ماژولها را میگیرد و بخشی از آن را برای پخش در کل سیستم انتخاب میکند.
تئوریهای دیگر آگاهی را بیشتر به سختافزار فیزیکی گره میزنند. تئوری اطلاعات یکپارچه پیشنهاد میکند که آگاهی یک سیستم به جزئیات خاص ساختار فیزیکی آن بستگی دارد - بهویژه اینکه چگونه وضعیت فعلی اجزای فیزیکی آن بر آینده آنها تأثیر میگذارد و گذشته آنها را نشان میدهد. طبق IIT، سیستمهای رایانهای مرسوم و در نتیجه هوشمصنوعی کنونی، هرگز نمیتوانند آگاه باشند – ساختار علی درستی ندارند. (این نظریه اخیراً توسط برخی از محققان مورد انتقاد قرار گرفت، که فکر میکنند توجه زیادی به آن جلب شده است.)
آنیل ست[8]، استاد علوم اعصاب در دانشگاه ساسکس، به یک دلیل اصلی بیشتر با نظریههای مبتنی بر سخت افزار موافق است: او فکر میکند زیست شناسی مهم است. هر موجود آگاه که ما از آنها میشناسیم، مولکولهای آلی را برای انرژی تجزیه میکند، برای حفظ یک محیط داخلی پایدار کار میکند، و اطلاعات را از طریق شبکههای نورونها از طریق ترکیبی از سیگنالهای شیمیایی و الکتریکی پردازش میکند. برخی از دانشمندان استدلال میکنند که اگر این در مورد همه موجودات آگاه صادق باشد، گمان اینکه هر یک از آن ویژگیها، یا شاید حتی همه آنها، ممکن است برای آگاهی لازم باشد، کار زیادی نیست.
ست میگوید از آنجایی که او فکر میکند زیستشناسی برای آگاهی بسیار مهم است، زمان بیشتری را صرف نگرانی در مورد امکان هوشیاری در ارگانوئیدهای مغزی - تودههای بافت عصبی رشد یافته در ظرف - میکند تا در هوش مصنوعی. او میگوید: «مسئله این است که ما نمیدانیم درست میگویم یا نه. "و من ممکن است اشتباه کنم."
او در این نگرش تنها نیست. هر متخصصی یک نظریه ترجیحی در مورد آگاهی دارد، اما هیچکدام آن را به عنوان ایدئولوژی تلقی نمیکنند - همه آنها برای همیشه مراقب این احتمال هستند که از اسب اشتباهی حمایت کردهاند. در پنج سال گذشته، دانشمندان آگاهی شروع به کار با یکدیگر روی مجموعهای از «همکاریهای متخاصم» کردهاند، که در آن حامیان نظریههای مختلف گرد هم میآیند تا آزمایشهای علوم اعصاب را طراحی کنند که میتواند به آزمایش آنها در برابر یکدیگر کمک کند. محققان پیش از موعد در مورد اینکه کدام الگوهای نتایج از کدام نظریه پشتیبانی میکند، توافق کردند. سپس آزمایشها را اجرا میکنند و میبینند چه اتفاقی میافتد.
در ماه ژوئن، Mudrik، Koch، Chalmers و گروه بزرگی از همکاران نتایج یک همکاری متخاصم را منتشر کردند که نظریه فضای کاری سراسری را در برابر نظریه اطلاعات یکپارچه قرار میداد. هیچ کدام از این دو نظریه به طور کامل در صدر قرار نگرفتند. اما مودریک میگوید که این فرآیند هنوز مثمر ثمر بود: واداشتن حامیان هر نظریه به پیشبینیهای ملموس به دقیقتر و مفیدتر شدن نظریهها کمک کرد. او میگوید: «همه تئوریهایی در حال پیشرفت هستند.
در همان زمان، مودریک در تلاش است تا بفهمد این تنوع نظریهها چه معنایی برای هوشمصنوعی دارد. او با یک تیم بین رشتهای از فیلسوفان، دانشمندان کامپیوتر و دانشمندان علوم اعصاب کار میکند که اخیراً مقالهای را منتشر کردهاند که در آن توصیههای عملی در مورد تشخیص هوشمصنوعی ارائه میشود. در این مقاله، تیم از نظریههای مختلفی برای ساختن نوعی «کارت گزارش» آگاهی استفاده میکند - فهرستی از نشانگرهایی که نشان میدهند هوشمصنوعی هوشیار است، با این فرض که یکی از آن نظریهها درست است. این نشانگرها شامل داشتن ارتباطات بازخوردی خاص، استفاده از یک فضای کاری جهانی، تعقیب انعطافپذیر اهداف و تعامل با یک محیط خارجی (اعم از واقعی یا مجازی) است.
در واقع، این استراتژی تشخیص میدهد که تئوریهای اصلی آگاهی تا حدی شانسی برای درست شدن دارند – و بنابراین اگر تئوریهای بیشتری موافق باشند که هوشمصنوعی هوشیار است، احتمال بیشتری وجود دارد که واقعاً آگاه باشد. به همین ترتیب، سیستمی که فاقد همه آن نشانگرها باشد، تنها زمانی میتواند آگاه باشد که نظریههای فعلی ما بسیار اشتباه باشند. LLMهایی مانند LaMDA در حال حاضر اینجا هستند: آنها نوع مناسبی از اتصالات بازخورد را ندارند، از فضاهای کاری سراسری استفاده میکنند یا به نظر میرسد که نشانگرهای آگاهی دیگری ندارند.
با این حال، مسئله آگاهی به کمیته این است که این وضعیت دوام نخواهد داشت. به گفته نویسندگان مقاله سفید، هیچ مانع تکنولوژیکی بزرگی بر سر راه ساخت سیستمهای هوشمصنوعی که امتیاز بالایی در کارت گزارش هوشیاری آنها داشته باشد، وجود ندارد. به زودی، ما مستقیماً با یک سؤال علمی تخیلی روبرو خواهیم شد: با یک ماشین بالقوه آگاه چه باید کرد؟
در سال 1989، سالها قبل از اینکه عصبشناسی آگاهی بهواقع خودش را پیدا کند، Star Trek: The Next Generation قسمتی با عنوان «معیار یک مرد[9]» را پخش کرد. این اپیزود بر شخصیت دیتا متمرکز است، اندرویدی که بیشتر زمان نمایش را صرف مبارزه با انسانیت مورد مناقشه خود میکند. در این قسمت خاص، یک دانشمند میخواهد به زور دادهها را جدا کند تا بفهمد چگونه کار میکند. دیتا که نگران این بود که جداسازی مونتاژ بتواند به طور موثری او را بکشد، امتناع میکند. و کاپیتان دیتا، پیکارد، باید در دادگاه از حق خود برای امتناع از این رویه دفاع کند.
پیکارد هرگز ثابت نمیکند که دیتا آگاه است. در عوض، او نشان میدهد که هیچکس نمیتواند هوشیار بودن دیتا را رد کند، بنابراین خطر آسیب رساندن به دیتا، و محکوم کردن بالقوه اندرویدهایی که پس از او به بردگی میآیند، بسیار زیاد است. این یک راهحل وسوسه انگیز برای معمای آگاهی مشکوک هوشمصنوعی است: با هر سیستم بالقوه هوشیار به گونهای رفتار کنید که گویی واقعاً آگاه است و از خطر آسیب رساندن به موجودی که واقعاً میتواند رنج بکشد اجتناب کنید.
رفتار کردن با دادهها مانند یک شخص ساده است: او می تواند به راحتی خواستهها و نیازهای خود را بیان کند، و این خواستهها و نیازها شبیه به همتایان انسانی او، به طور کلی هستند. رابرت لانگ، فلسفی مرکز ایمنی هوشمصنوعی در سانفرانسیسکو، که یکی از نویسندگان اصلی این مقاله است، میگوید: اما محافظت از یک هوشمصنوعی در دنیای واقعی از رنج میتواند بسیار دشوارتر باشد. او میگوید: «در مورد حیوانات، ویژگی مفیدی وجود دارد که آنها اساساً چیزهایی مشابه ما میخواهند. "در مورد هوشمصنوعی فهمیدن این موضوع به نوعی سخت است." حفاظت از هوشمصنوعی نه تنها به تئوری هوشیاری هوشمصنوعی نیاز دارد، بلکه به نظریهای درباره لذتها و دردهای هوشمصنوعی، خواستهها و ترسهای هوشمصنوعی نیاز دارد.
"در مورد حیوانات، ویژگی مفیدی وجود دارد که آنها اساساً چیزهایی مشابه ما میخواهند. به نوعی سخت است که بدانیم در مورد هوشمصنوعی چیست."
رابرت لانگ، فلسفی، مرکز ایمنی هوشمصنوعی در سانفرانسیسکو
و این رویکرد بدون هزینه نیست. در پیشتازان فضا، دانشمندی که میخواهد دیتا را جدا کند، امیدوار است که اندرویدهای بیشتری مانند او بسازد که ممکن است بهجای پرسنل دیگر به مأموریتهای پرخطر فرستاده شوند. برای بیننده ای که دیتا را یک شخصیت آگاه مانند سایر افراد نمایش میبیند، این پیشنهاد وحشتناک است. اما اگر دادهها صرفاً شبیهسازی متقاعدکنندهای از یک انسان بود، قرار دادن یک فرد در معرض خطر به جای او غیر وجدانآمیز بود.
گسترش مراقبت از موجودات دیگر به معنای محافظت از آنها در برابر آسیب است و این امر انتخابهایی را که انسانها میتوانند از نظر اخلاقی انجام دهند محدود میکند. لانگ میگوید: «من در مورد سناریوهایی که بیش از حد به حیوانات اهمیت میدهیم، نگران نیستم. برای پایان دادن به کشاورزی کارخانهای، نکات منفی کمی وجود دارد. او میافزاید: «اما با سیستمهای هوشمصنوعی، من فکر میکنم اگر بیش از حد آگاهی را نسبت دهیم، خطرات زیادی وجود دارد.» سیستمهای هوشمصنوعی ممکن است دچار اختلال شوند و باید خاموش شوند. آنها ممکن است نیاز به آزمایشهای ایمنی دقیق داشته باشند. اگر هوشمصنوعی بیجان باشد، اینها تصمیمات آسانی هستند و اگر نیازهای هوشمصنوعی باید در نظر گرفته شوند، باتلاقهای فلسفی هستند.
ست - که فکر میکند هوشمصنوعی آگاهانه حداقل برای آینده قابل پیشبینی نسبتاً بعید است - با این وجود نگران این است که امکان هوشیاری هوشمصنوعی چه معنایی برای انسان دارد. او میگوید: «این نحوه توزیع منابع محدودمان برای مراقبت از چیزها را تغییر خواهد داد. ممکن است برای آینده مسئلهای به نظر برسد. اما درک هوشیاری هوش مصنوعی اکنون با ما همراه است: بلیک لمواین برای هوش مصنوعی که معتقد بود هوشیار است، ریسک شخصی کرد و شغل خود را از دست داد. چند نفر دیگر ممکن است زمان، پول و روابط شخصی را فدای سیستمهای کامپیوتری بیجان کنند؟
دانستن این که دو خط در توهم مولر- لیر[10] دقیقاً یکسان هستند، مانع از آن نمیشود که یکی را کوتاهتر از دیگری بدانیم. به طور مشابه، دانستن اینکه GPT آگاهانه نیست، این توهم را تغییر نمیدهد که شما با موجودی با دیدگاه، نظرات و شخصیت صحبت میکنید.
حتی رباتهای گفتگوی بدون استخوان نیز میتوانند کشش عجیبی داشته باشند: یک برنامه ساده به نام ELIZA که در دهه 1960 برای شبیهسازی گفتار درمانی ساخته شد، بسیاری از کاربران را متقاعد کرد که قادر به احساس و درک است. درک هوشیاری و واقعیت آگاهی به خوبی همسو نیستند و این اختلاف زمانی بدتر میشود که سیستمهای هوشمصنوعی قادر به درگیر شدن در مکالمات واقعیتر شوند. ست میگوید: «ما نمیتوانیم از درک آنها بهعنوان تجربههای آگاهانه اجتناب کنیم، همانطور که برخی از توهمات بصری از نظر شناختی برای ما غیرقابل نفوذ هستند». همانطور که دانستن این موضوع که دو خط در توهم مولر- لیر دقیقاً یکسان هستند، مانع از این نمیشود که یکی را کوتاهتر از دیگری درک کنیم، دانستن اینکه GPT هوشیار نیست، این توهم را تغییر نمیدهد که شما داشتن دیدگاه، نظر و شخصیت با آن صحبت میکنید.
در سال 2015، سالها قبل از اینکه این نگرانیها مطرح شود، فیلسوفان اریک شویتزگبل و مارا گارزا مجموعهای از توصیهها را برای محافظت در برابر چنین خطراتی تدوین کردند. یکی از توصیههای آنها، که آن را «سیاست طراحی همسویی احساسی» نامیدند، استدلال میکرد که هر هوشمصنوعی ناخودآگاه باید عمداً طراحی شود تا کاربران باور نکنند که هوشیار است. شرکتها گامهای کوچکی در این راستا برداشتهاند - ChatGPT اگر از آن بپرسید که آیا آگاهانه است یا خیر، یک انکار رمزگذاریشده را نشان میدهد. اما چنین پاسخهایی باعث برهم زدن توهم کلی نمیشود.
شویتزگبل[11]، که استاد فلسفه در دانشگاه کالیفرنیا، ریورساید است، میخواهد از هرگونه ابهام دوری کند. در مقاله سال 2015، او و گارزا همچنین «سیاست میانی حذف شده» خود را پیشنهاد کردند - اگر مشخص نیست که یک سیستم هوشمصنوعی هوشیار خواهد بود، آن سیستم نباید ساخته شود. در عمل، این بدان معنی است که همه کارشناسان مربوطه باید توافق کنند که یک هوشمصنوعی آینده نگر به احتمال زیاد آگاه نیست (حکم آنها برای LLMهای فعلی) یا به احتمال زیاد آگاه است. شویتزگبل میگوید: «کاری که ما نمیخواهیم انجام دهیم این است که مردم را گیج کنیم.
پرهیز از ناحیه خاکستری آگاهی مورد مناقشه هم خطرات آسیب رساندن به هوشمصنوعی هوشیار و هم از جنبههای منفی تلقی یک ماشین بیجان به عنوان یک دستگاه هوشیار کاملاً از بین میرود. مسئله اینجاست که انجام این کار ممکن است واقع بینانه نباشد. بسیاری از محققان - مانند Rufin VanRullen، مدیر تحقیقاتی در مرکز ملی فرانسوی de la Recherche Scientifique، که اخیراً بودجه لازم برای ساخت یک هوشمصنوعی با فضای کاری سراسری را به دست آورده است - اکنون به طور فعال در حال کار هستند تا هوشمصنوعی را با زیربنای بالقوه آگاهی اعطا کنند.
ونرالن[12] میگوید نقطه ضعف توقف در ساخت سیستمهای بالقوه آگاه این است که سیستمهایی مانند آنچه که او میخواهد ایجاد کند ممکن است مؤثرتر از هوشمصنوعی فعلی باشد. او میگوید: «هر وقت از عملکرد فعلی هوشمصنوعی ناامید میشویم، همیشه به این دلیل است که از آنچه مغز قادر به انجام آن است عقب مانده است. بنابراین لزوماً هدف من ایجاد یک هوشمصنوعی آگاهانه نیست، بلکه هدف بسیاری از افراد در هوشمصنوعی در حال حاضر حرکت به سمت این قابلیتهای استدلالی پیشرفته است. چنین قابلیتهای پیشرفتهای میتواند مزایای واقعی را به همراه داشته باشد: در حال حاضر، داروهای طراحی شده با هوشمصنوعی در آزمایشات بالینی آزمایش میشوند. غیرقابل تصور نیست که هوشمصنوعی در منطقه خاکستری بتواند جان افراد را نجات دهد.
ون رالن به خطرات هوش مصنوعی آگاهانه حساس است - او با لانگ و مودریک روی کاغذ سفید در مورد تشخیص هوشیاری در ماشینها کار کرد. اما او می گوید که همین خطرات است که تحقیقات او را مهم میکند. شانس این است که هوشمصنوعی آگاه، ابتدا از پروژهای قابل مشاهده و با بودجه عمومی مانند پروژه او پدیدار نشود. ممکن است به خوبی جیبهای عمیق شرکتی مانند گوگل یا OpenAI را بگیرد. ون رالن میگوید، این شرکتها به احتمال زیاد از معضلات اخلاقی که یک سیستم آگاهانه معرفی میکند استقبال نمیکنند. «آیا این بدان معناست که وقتی در آزمایشگاه اتفاق میافتد، فقط وانمود میکنند که این اتفاق نیفتاده است؟ آیا این بدان معناست که ما از آن خبر نداریم؟» او می گوید. "من آن را بسیار نگران کننده میدانم."
او میگوید که دانشگاهیان مانند او میتوانند با دریافت درک بهتر از نحوه عملکرد خود هوشیاری، هم در انسان و هم در ماشین، به کاهش این خطر کمک کنند. این دانش میتواند تنظیم کنندهها را قادر سازد تا به طور مؤثرتری بر شرکتهایی نظارت کنند که به احتمال زیاد شروع به فعالیت در ایجاد ذهن مصنوعی میکنند. هرچه آگاهی را بیشتر درک کنیم، آن ناحیه خاکستری مخاطرهآمیز کوچکتر میشود و شانس بهتری برای دانستن اینکه آیا در آن هستیم یا نه، بیشتر میشود.
به نوبه خود، شویتزگبل ترجیح میدهد ما به طور کامل از منطقه خاکستری فاصله بگیریم. اما با توجه به بزرگی عدم قطعیتهای موجود، او اذعان میکند که این امید احتمالاً غیرواقعی است – بهویژه اگر هوشمصنوعی آگاهانه سودآور باشد. و هنگامی که در منطقه خاکستری قرار گرفتیم - زمانی که باید منافع موجودات آگاه به بحث را جدی بگیریم - در مناطق دشوارتر نیز پیمایش خواهیم کرد و با مسائل اخلاقی با پیچیدگی بیسابقه بدون نقشه راه روشن برای حل آنها مبارزه خواهیم کرد. این بر عهده محققان است، از فیلسوفان گرفته تا دانشمندان علوم اعصاب و دانشمندان کامپیوتر، که وظیفه بزرگ ترسیم این نقشه را بر عهده بگیرند.