آگاهی مصنوعی، [1] همچنین به عنوان آگاهی ماشینی، [2] [3] آگاهی مصنوعی، [4] یا آگاهی دیجیتال، [5] هشیاری است که فرض میشود در هوشمصنوعی ممکن است.[6] همچنین رشته تحصیلی مربوطه است که بینشهایی را از فلسفه ذهن، فلسفه هوشمصنوعی، علوم شناختی و علوم اعصاب در بر میگیرد.
همین اصطلاح را میتوان با اصطلاح «احساس[1]» بهجای «آگاهی» در هنگام مشخص کردن آگاهی پدیدهای (توانایی احساس کیفیت[2]) به کار برد.[7] از آنجایی که احساسات شامل توانایی تجربه حالات روحی مثبت یا منفی (یعنی پرقدرت) از نظر اخلاقی است، ممکن است نگرانیهای رفاهی و حمایت قانونی را مانند حیوانات توجیه کند.[8]
برخی از محققان بر این باورند که هوشیاری با عملکرد متقابل بخشهای مختلف مغز ایجاد میشود. این مکانیسم ها به عنوان همبستگی عصبی آگاهی[3] یا NCC نامگذاری میشوند. برخی دیگر بر این باورند که ساختن یک سیستم (به عنوان مثال، یک سیستم کامپیوتری) که میتواند این تعامل NCC را تقلید کند، منجر به سیستمی میشود که آگاه است.[9]
دیدگاههای فلسفی
از آنجایی که انواع فرضیههای زیادی از آگاهی وجود دارد، پیادهسازیهای بالقوه بسیاری از آگاهی مصنوعی وجود دارد. در ادبیات فلسفی، شاید رایجترین طبقهبندی آگاهی به انواع «دسترسی» و «پدیدار» باشد. آگاهی دسترسی به آن جنبههایی از تجربه مربوط میشود که میتوان آنها را درک کرد، در حالی که آگاهی پدیداری به آن جنبههایی از تجربه مربوط میشود که ظاهراً نمیتوان آنها را درک کرد، در عوض بهطور کیفی بر حسب «احساسات خام»، «چگونه است» یا کیفیت توصیف میشوند.[10]
بحث معقول بودن
نظریهپردازان هویت نوع و دیگر شکاکان بر این عقیده هستند که آگاهی فقط در سیستمهای فیزیکی خاص قابل تحقق است زیرا آگاهی دارای ویژگیهایی است که لزوماً به ساختار فیزیکی بستگی دارد.[11][12][13][14] جورجیو بوتازو[4] در مقاله خود در سال 2001 با عنوان "آگاهی مصنوعی: اتوپیا یا امکان واقعی[5]" میگوید که یک اعتراض رایج به آگاهی مصنوعی این است که با کار در یک حالت کاملاً خودکار، آنها [رایانهها] نمیتوانند خلاقیت، برنامهریزی مجدد[6] (که به معنای برنامهریزی مجدد، برنامهریزی مجدد[7]، یا برنامهریزی مجدد از
کامپیوتر، دیگر نمیتوانند از کامپیوتر بازبرنامهریزی شوند. مانند ماشین لباسشویی، بردهای است که توسط اجزای آن کار میکند.»[15]
برای نظریه پردازان دیگر (به عنوان مثال، کارکردگرایان)، که حالات ذهنی را بر حسب نقشهای علی تعریف میکنند، هر سیستمی که بتواند الگوی یکسانی از نقشهای علی را بدون توجه به ساختار فیزیکی نشان دهد، همان حالات ذهنی، از جمله آگاهی را نشان میدهد.[16]
آزمایشهای فکری
دیوید چالمرز دو آزمایش فکری[8] را پیشنهاد کرد که قصد داشت نشان دهد که سیستمهای "همشکلی عملکردی[9]" (آنهایی که دارای "سازمان عملکردی ریزدانه[10]" یکسان هستند، یعنی پردازش اطلاعات یکسان) فارغ از اینکه مبتنی بر نورونهای بیولوژیکی یا سختافزار دیجیتال هستند، تجربیات آگاهانه کیفی یکسانی خواهند داشت.[17][18]
«کیفیت محو شدن[11]» یک آزمایش فکری تقلیلیافته[12] است. این شامل جایگزینی یک به یک، نورونهای مغز با یک جزء عملکردی یکسان، به عنوان مثال بر اساس یک تراشه سیلیکونی است. از آنجایی که نورونهای اصلی و همتایان سیلیکونی آنها از نظر عملکردی یکسان هستند، پردازش اطلاعات مغز باید بدون تغییر باقی بماند و سوژه هیچ تفاوتی را متوجه نشود. با این حال، اگر کیفیات (مانند تجربه ذهنی قرمز روشن) محو یا ناپدید شوند، آزمودنی احتمالاً متوجه این تغییر میشود که باعث تناقض میشود. چالمرز نتیجه میگیرد که فرضیه محو کیفیت در عمل غیرممکن است، و مغز روباتیک حاصل، زمانی که هر نورون جایگزین شود، به اندازه مغز بیولوژیکی اولیه حساس باقی میماند.[17]
به طور مشابه، آزمایش فکری «کیفیت رقص» یکی دیگر از استدلالهای فکری تقلیلیافته است. فرض میکند که دو سیستم همشکل عملکردی میتوانند ادراک متفاوتی داشته باشند (به عنوان مثال، دیدن یک شی در رنگهای مختلف، مانند قرمز و آبی). این شامل یک سوئیچ است که به طور متناوب بین قسمتی از مغز که باعث درک رنگ قرمز میشود و یک تراشه سیلیکونی ایزومورفیک که باعث درک رنگ آبی میشود، تغییر میکند. از آنجایی که هر دو عملکرد یکسانی را در مغز انجام میدهند، سوژه در حین سوئیچ متوجه هیچ تغییری نمیشود. چالمرز استدلال میکند که اگر این کیفیت واقعاً بین قرمز و آبی تغییر کند، بسیار غیرممکن است، از این رو تناقض وجود دارد. بنابراین، او نتیجه میگیرد که سیستم دیجیتال معادل نه تنها کیفیت را تجربه میکند، بلکه همان کیفیات سیستم بیولوژیکی را درک میکند (به عنوان مثال، دیدن یک رنگ).[17][19]
منتقدان احساسات مصنوعی مخالف هستند که پیشنهاد چالمرز با این فرض که همه ویژگیهای ذهنی و ارتباطات بیرونی به اندازه کافی توسط سازمان علّی انتزاعی تسخیر شدهاند، این سؤال را مطرح میکند.
در مدلهای زبان بزرگ
در سال 2022، مهندس گوگل بلیک لمواین[13] ادعای ویروسی کرد که چت ربات LaMDA گوگل حساس است. لمواین به عنوان مدرک پاسخهای انسانی چت بات را به بسیاری از سوالات خود ارائه کرد. با این حال، رفتار ربات چت توسط جامعه علمی به عنوان نتیجه تقلید به جای احساسات ماشینی ارزیابی شد. ادعای لمواین به دلیل مضحک بودن به طور گسترده مورد تمسخر قرار گرفت.[20] با این حال، در حالی که فیلسوف نیک بوستروم[14] بیان میکند که LaMDA بعید است که آگاه باشد، او علاوه بر این این سوال را مطرح میکند که "چه دلیلی برای اطمینان از آن وجود دارد؟" شخص باید به اطلاعات منتشر نشده در مورد معماری LaMDA دسترسی داشته باشد، و همچنین باید بفهمد که هوشیاری چگونه کار میکند، و سپس نحوه ترسیم این فلسفه را بر روی ماشین بیابد: "(در غیاب این مراحل)، به نظر میرسد که ممکن است کمی نامطمئن باشد. [...] در حال حاضر، یا در آینده نسبتاً نزدیک، میتوانند سیستمهای دیگری وجود داشته باشند که این معیارها را برآورده میکنند.
کریستینا شکرست[15] هشدار میدهد که اصطلاحات انسانی مانند "توهم[16]" میتوانند تفاوتهای هستی شناختی مهم بین شناخت مصنوعی و انسانی را پنهان کنند. در حالی که LLMها ممکن است خروجیهایی شبیه انسان ایجاد کنند، او استدلال میکند که نسبت دادن حالات ذهنی یا آگاهی به آنها را توجیه نمیکند. در عوض، او از یک چارچوب معرفتشناختی (مانند پایاییگرایی[17]) دفاع میکند که ماهیت متمایز تولید دانش هوشمصنوعی را تشخیص میدهد.[22] او پیشنهاد میکند که درک ظاهری در LLM ممکن است شکل پیچیدهای از توهم هوشمصنوعی باشد. او همچنین میپرسد که اگر یک LLM بدون هیچ اشارهای به هوشیاری آموزش ببیند، چه اتفاقی میافتد.[23]
دیوید چالمرز در سال 2023 استدلال کرد که امروزه LLMها تواناییهای محاورهای و هوش عمومی[18] قابل توجهی از خود نشان میدهند، اما احتمالاً هنوز آگاه نیستند، زیرا فاقد برخی ویژگیهایی هستند که ممکن است، مانند پردازش مکرر، فضای کاری جهانی، و آژانس یکپارچه ضروری باشد. با این وجود، او معتقد است که سیستمهای غیرزیستی میتوانند آگاه باشند، و پیشنهاد کرد که مدلهای توسعهیافته آینده (LLM+s) که این عناصر را در خود جای میدهند، ممکن است در نهایت معیارهای آگاهی را برآورده کنند و هم سؤالات علمی عمیق و هم چالشهای اخلاقی مهمی را ایجاد کنند.[24]
تست کردن
کیفیت یا آگاهی پدیدارشناختی، ذاتاً یک پدیده اول شخص است. به همین دلیل، و فقدان یک تعریف تجربی از احساس، اندازهگیری مستقیم آن ممکن است غیرممکن باشد. اگرچه سیستمها ممکن است رفتارهای متعدد مرتبط با احساس را نشان دهند، تعیین اینکه آیا یک سیستم حساس است یا خیر به عنوان مسئله سخت آگاهی[19] شناخته میشود. در مورد هوشمصنوعی، این دشواری اضافی وجود دارد که ممکن است هوشمصنوعی آموزش ببیند تا مانند یک انسان عمل کند، یا انگیزهای برای به نظر رسیدن احساساتی داشته باشد، که نشانگرهای رفتاری احساسات را کمتر قابل اعتماد میکند.[25][26] علاوه بر این، برخی از رباتهای گفتگو آموزش دیدهاند تا بگویند هوشیار نیستند.[27]
یک روش شناخته شده برای آزمایش هوش ماشین، تست تورینگ است که توانایی انجام مکالمه شبیه انسان را ارزیابی میکند. اما قبولی در آزمون تورینگ نشان نمیدهد که یک سیستم هوشمصنوعی حساس است، زیرا هوشمصنوعی ممکن است به سادگی رفتار انسان را بدون داشتن احساسات مرتبط تقلید کند.[28]
در سال 2014، ویکتور آرگونوف[20] آزمایش غیر تورینگی را برای احساسات ماشینی[21] بر اساس توانایی ماشین در تولید قضاوتهای فلسفی پیشنهاد کرد.[29] او استدلال میکند که یک ماشین جبرگرا باید آگاه تلقی شود اگر بتواند درباره همه ویژگیهای مسئلهساز آگاهی (مانند کیفیت یا الزامآوری) قضاوت کند، بدون اینکه دانش فلسفی ذاتی (از پیش بارگذاریشده) در مورد این موضوعات، هیچ بحث فلسفی در حین یادگیری وجود نداشته باشد، و هیچ مدل اطلاعاتی موجودات دیگر ممکن است به طور ضمنی حاوی این دانشها یا مدلهای تلویحی در مورد حافظهاش نباشد. آگاهی موجودات). با این حال، این آزمایش را میتوان تنها برای تشخیص، اما نه رد وجود هوشیاری استفاده کرد. یک نتیجه مثبت ثابت میکند که ماشین هوشیار است اما یک نتیجه منفی چیزی را ثابت نمیکند. به عنوان مثال، فقدان قضاوتهای فلسفی ممکن است ناشی از فقدان عقل ماشینی، نه فقدان آگاهی باشد.
اخلاق
مقالات اصلی: اخلاق هوشمصنوعی، اخلاق ماشین، و اخلاق رباتیک
اگر مشکوک بود که یک ماشین خاص آگاه است، حقوق آن یک موضوع اخلاقی است که باید ارزیابی شود (مثلاً چه حقوقی بر اساس قانون خواهد داشت).[30] به عنوان مثال، یک رایانه آگاه که در اختیار داشت و به عنوان یک ابزار یا رایانه مرکزی در یک ماشین بزرگتر استفاده میشد، یک ابهام خاص است. آیا برای چنین موردی باید قوانینی وضع کرد؟ آگاهی نیز در این مورد خاص نیاز به تعریف قانونی دارد. از آنجا که آگاهی مصنوعی هنوز تا حد زیادی یک موضوع نظری است، چنین اخلاقی تا حد زیادی مورد بحث یا توسعه قرار نگرفته است، اگرچه اغلب موضوعی در داستان بوده است.
عموماً احساس برای ملاحظات اخلاقی کافی در نظر گرفته میشود، اما برخی فیلسوفان معتقدند که ملاحظات اخلاقی میتواند از مفاهیم دیگر آگاهی، یا از قابلیتهای غیرمرتبط با آگاهی ناشی شود، [31] [32] مانند: «درک پیچیدهای از خود بهعنوان ماندگار در طول زمان؛ داشتن اختیار و توانایی برای پیگیری دلایل ارتباطی و توانایی پاسخگویی طولانیمدت به هنجار. و قدرت داشتن در روابط اجتماعی خاص با سایر موجودات که دارای موقعیت اخلاقی هستند و قادر به ایجاد تعهدات متقابل هستند.
نگرانیهای اخلاقی هنوز هم اعمال میشود (اگرچه به میزان کمتری) زمانی که آگاهی نامطمئن[22] است، تا زمانی که احتمال آن غیر قابل چشمپوشی تلقی شود. اگر هزینه اخلاقی نسبت دادن یا انکار اشتباه ملاحظات اخلاقی به هوشمصنوعی به طور قابل توجهی متفاوت باشد، اصل احتیاط[23] نیز مرتبط است.[32][8]
در سال 2021، توماس متزینگر[24]، فیلسوف آلمانی، برای تعلیق جهانی پدیدارشناسی مصنوعی تا سال 2050 استدلال کرد. دیوید چالمرز همچنین استدلال کرد که ایجاد هوشمصنوعی آگاهانه «گروه جدیدی از چالشهای اخلاقی دشوار را با پتانسیل شکلهای جدید بیعدالتی ایجاد میکند».[24]
فراموشی اجباری[25] به عنوان راهی برای کاهش خطر رنج خاموش در هوش مصنوعی آگاهانه قفل شده و برخی سیستمهای بیولوژیکی مجاور با هوش مصنوعی مانند ارگانوئیدهای مغزی[26] پیشنهاد شده است.[34]
جنبههای آگاهی
برنارد بارس[27] و دیگران استدلال میکنند که جنبههای مختلفی از آگاهی لازم است تا یک ماشین به طور مصنوعی هوشیار باشد.[35] کارکردهای آگاهی پیشنهاد شده توسط بارس عبارتند از: تعریف و تنظیم زمینه، انطباق و یادگیری، ویرایش، پرچمگذاری و اشکالزدایی، استخدام و کنترل، اولویتبندی و کنترل دسترسی، تصمیمگیری یا عملکرد اجرایی، عملکرد تشکلدهنده قیاس، عملکرد فراشناختی و خود نظارتی، و خودبرنامهنویسی و خودنگهداری[28]. ایگور الکساندر[29] 12 اصل را برای آگاهی مصنوعی پیشنهاد کرد: [36] مغز یک ماشین حالت، تقسیم نورون درونی، حالات خودآگاه و ناخودآگاه، یادگیری و حافظه ادراکی، پیش بینی، آگاهی از خود، بازنمایی معنا، یادگیری جملات، یادگیری زبان، اراده، غریزه و احساسات است[30]. هدف AC این است که تعریف کند که آیا و چگونه میتوان این و سایر جنبههای آگاهی را در یک مصنوع مهندسی شده مانند یک کامپیوتر دیجیتال سنتز کرد. این فهرست جامع نیست. بسیاری دیگر هستند که پوشش داده نشدهاند.
تجربه ذهنی
برخی از فیلسوفان، مانند دیوید چالمرز، اصطلاح آگاهی را منحصراً برای اشاره به آگاهی پدیداری، که تقریباً معادل احساس است، به کار می برند. برخی دیگر از واژه احساس برای اشاره انحصاری به تجربیات ذهنی (از لحاظ اخلاقی مثبت یا منفی) مانند لذت یا رنج استفاده میکنند.[24] توضیح اینکه چرا و چگونه تجربه ذهنی پدید میآید به عنوان مسئله سخت آگاهی شناخته میشود.[37] احساس هوشمصنوعی نگرانیهایی را در مورد رفاه و حمایت قانونی ایجاد میکند، [8] در حالی که سایر جنبههای آگاهی مرتبط با قابلیتهای شناختی ممکن است برای حقوق هوشمصنوعی مرتبطتر باشد.[38]
آگاهی
آگاهی[31] میتواند یکی از جنبههای ضروری باشد، اما در تعریف دقیق آگاهی مسائل زیادی وجود دارد. نتایج آزمایشهای اسکن عصبی روی میمونها نشان میدهد که یک فرآیند، نه تنها یک حالت یا شی، نورونها را فعال میکند. آگاهی شامل ایجاد و آزمایش مدلهای جایگزین از هر فرآیند بر اساس اطلاعات دریافتی از طریق حواس یا تصور، است و همچنین برای پیشبینی مفید است. چنین مدلسازی نیاز به انعطافپذیری زیادی دارد. ایجاد چنین مدلی شامل مدلسازی دنیای فیزیکی، مدلسازی حالات و فرآیندهای درونی خود و مدلسازی سایر موجودات آگاه است.
حداقل سه نوع آگاهی وجود دارد: [39] آگاهی عاملی، آگاهی هدف، و آگاهی حسی-حرکتی[32]، که ممکن است آگاهانه باشد یا نباشد. به عنوان مثال، در آگاهی از آژانس، ممکن است بدانید که دیروز عمل خاصی را انجام دادهاید، اما اکنون از آن آگاه نیستید. در آگاهی از هدف، ممکن است بدانید که باید به دنبال یک شی گم شده بگردید، اما اکنون از آن آگاه نیستید. در هوشیاری حسی-حرکتی، ممکن است بدانید که دستتان روی یک جسم قرار گرفته است، اما اکنون از آن آگاه نیستید.
از آنجا که اشیاء آگاهی اغلب آگاه هستند، تمایز بین Awareness و Conscious غالباً مبهم است یا به عنوان مترادف به کار میروند.[40]
حافظه
رویدادهای آگاهانه با سیستمهای حافظه در یادگیری، تمرین و بازیابی تعامل دارند.[41] مدل IDA [42] نقش آگاهی را در به روز رسانی حافظه ادراکی، [43] حافظه اپیزودیک[33] گذرا و حافظه رویهای[34] روشن میکند. خاطرات گذرا اپیزودیک و اعلامی بازنماییهایی را در IDA توزیع کردهاند. شواهدی وجود دارد که در سیستم عصبی نیز چنین است.[44] در IDA، این دو حافظه به صورت محاسباتی با استفاده از نسخه اصلاح شده معماری حافظه توزیع شده پراکنده Kanerva پیادهسازی میشوند.[45]
یادگیری
یادگیری برای آگاهی مصنوعی نیز ضروری تلقی میشود. به گفته برنارد بارس، تجربه آگاهانه برای بازنمایی و انطباق با رویدادهای بدیع و مهم مورد نیاز است.[35] به گفته اکسل کلیرمانس[35] و لوئیس جیمنز[36]، یادگیری به عنوان "مجموعهای از فرآیندهای سازگاری پیشرفته فیلوژنتیکی[37] که به طور انتقادی به حساسیت تکامل یافته به تجربه ذهنی بستگی دارد تا عوامل را قادر میسازد تا کنترل انعطافپذیری بر اعمال خود در محیطهای پیچیده و غیرقابل پیشبینی[38] داشته باشند" تعریف میشود.[46]
پیش بینی[39]
ایگور الکساندر توانایی پیشبینی (یا پیشبینی) رویدادهای قابل پیشبینی را برای هوشمصنوعی مهم میداند.[47] اصل پیشنویسهای چندگانه اضطراری[40] ارائه شده توسط دانیل دنت در توضیح آگاهی ممکن است برای پیشبینی مفید باشد: این اصل شامل ارزیابی و انتخاب مناسبترین "پیشنویس[41]" برای تناسب با محیط فعلی است. پیشبینی شامل پیشبینی پیامدهای اقدامات پیشنهادی خود و پیشبینی پیامدهای اقدامات احتمالی توسط سایر نهادها است.
روابط بین حالات دنیای واقعی در ساختار حالت یک ارگانیسم آگاه منعکس میشود و ارگانیسم را قادر میسازد وقایع را پیشبینی کند.[47] یک ماشین هوشیار مصنوعی باید بتواند رویدادها را به درستی پیش بینی کند تا در هنگام وقوع آنها آماده پاسخگویی به آنها یا انجام اقدامات پیشگیرانه برای جلوگیری از رویدادهای پیش بینی شده باشد. مفهوم اینجا این است که ماشین به اجزای زمان واقعی و انعطافپذیر نیاز دارد که مدلهای فضایی، دینامیکی، آماری، عملکردی و علت معلولی از دنیای واقعی و جهانهای پیشبینیشده را بسازد، و این امکان را فراهم میکند که نشان دهد در حال و آینده و نه تنها در گذشته، دارای آگاهی مصنوعی است. برای انجام این کار، یک ماشین آگاه باید پیشبینیها و برنامههای احتمالی منسجمی را انجام دهد، نه تنها در جهانهایی با قوانین ثابت مانند یک صفحه شطرنج، بلکه برای محیطهای جدیدی که ممکن است تغییر کنند، فقط در صورت مناسب برای شبیهسازی و کنترل دنیای واقعی اجرا شوند.
نظریههای کارکردگرایانه[42] آگاهی
کارکردگرایی نظریهای است که حالات ذهنی را با نقشهای عملکردی آنها (روابط علّی آنها با ورودیهای حسی، سایر حالات ذهنی و برون دادهای رفتاری) تا با ترکیب فیزیکی آنها تعریف میکند. بر اساس این دیدگاه، آنچه چیزی را به حالت روانی خاصی تبدیل میکند، مانند درد یا باور، مادهای نیست که از آن ساخته شده است، بلکه نقشی است که در سیستم شناختی کلی ایفا میکند. این امکان را فراهم میکند که حالات ذهنی، از جمله آگاهی، بر روی بسترهای غیر بیولوژیکی تحقق یابد، تا زمانی که روابط کارکردی درست را نشان دهد.[48] کارکردگرایی در میان فیلسوفان محبوبیت خاصی دارد.[49]
مطالعهای در سال 2023 نشان داد که مدلهای زبان بزرگ کنونی احتمالاً معیارهای آگاهی پیشنهاد شده توسط این نظریهها را برآورده نمیکنند، اما سیستمهای هوشمصنوعی نسبتاً سادهای که این نظریهها را برآورده میکنند، میتوانند ایجاد شوند. این مطالعه همچنین تصدیق کرد که حتی برجستهترین تئوریهای آگاهی ناقص و در معرض بحثهای مداوم باقی میمانند.[50]
نظریه فضای کاری جهانی
مقاله اصلی: نظریه فضای کاری جهانی
این نظریه ذهن را به یک تئاتر تشبیه میکند، در حالی که فکر آگاهانه مانند موادی است که در صحنه اصلی روشن میشود. مغز شامل بسیاری از فرآیندها یا ماژولهای تخصصی (مانند بینایی، زبان یا حافظه) است که به صورت موازی عمل میکنند که بیشتر آنها ناخودآگاه هستند. توجه به عنوان نورافکن عمل میکند و بخشی از این فعالیت ناخودآگاه را به آگاهی آگاهانه در فضای کاری جهانی میرساند. فضای کاری جهانی به عنوان مرکزی برای پخش و یکپارچهسازی اطلاعات عمل میکند و امکان به اشتراکگذاری و پردازش آن را در ماژولهای مختلف تخصصی فراهم میکند. برای مثال، هنگام خواندن یک کلمه، ماژول بصری حروف را تشخیص میدهد، ماژول زبان معنا را تفسیر میکند، و ماژول حافظه ممکن است اطلاعات مرتبط را به خاطر بیاورد - همه از طریق فضای کاری جهانی هماهنگ شدهاند.[51][52]
تئوریهای مرتبه بالاتر آگاهی
نظریههای مرتبه بالاتر آگاهی[43] پیشنهاد میکنند که یک حالت ذهنی زمانی آگاه میشود که موضوع بازنمایی مرتبه بالاتر، مانند یک فکر یا ادراک در مورد آن حالت باشد. این نظریهها استدلال میکنند که آگاهی از رابطه بین حالات ذهنی درجه پایین و آگاهی مرتبه بالاتر از آن حالات ناشی میشود. انواع مختلفی از جمله نظریههای تفکر مرتبه بالاتر[44] (HOT) و ادراک مرتبه بالاتر[45] (HOP) وجود دارد.[53][52]
نظریه طرحواره توجه
در سال 2011، مایکل گرازیانو[46] و سابین کاستلر[47] مقالهای به نام "آگاهی انسان و رابطه آن با علوم اعصاب اجتماعی: یک فرضیه جدید[48]" منتشر کردند که نظریهای از آگاهی را به عنوان طرح واره توجه پیشنهاد میکرد.[54] گرازیانو در ادامه بحث گستردهای درباره این نظریه در کتاب خود «آگاهی و مغز اجتماعی» منتشر کرد.[9] این طرحواره توجه نظریه آگاهی، همانطور که او آن را نامگذاری کرد، پیشنهاد میکند که مغز توجه را به ورودیهای حسی مختلف از طریق یک طرحواره توجه دنبال میکند، مشابه طرحواره بدنی که به خوبی مطالعه شده است که مکان فضایی بدن فرد را ردیابی میکند.[9] این به آگاهی مصنوعی با پیشنهاد مکانیسمی خاص برای دست زدن به اطلاعات مربوط میشود، که آنچه را که ما ظاهراً تجربه میکنیم و به عنوان آگاهی توصیف میکنیم، تولید میکند و باید بتواند توسط ماشینی با استفاده از فناوری فعلی تکرار شود. وقتی مغز متوجه میشود که شخص X از چیز Y آگاه است، در واقع حالتی را مدلسازی میکند که در آن شخص X افزایش توجه را به Y اعمال میکند. در نظریه طرحواره توجه، همین فرآیند را میتوان برای خود نیز اعمال کرد. مغز توجه را به ورودیهای حسی مختلف دنبال میکند و آگاهی خود یک مدل طرحوارهای از توجه فرد است. گرازیانو مکانهای خاصی را در مغز برای این فرآیند پیشنهاد میکند و پیشنهاد میکند که چنین آگاهی یک ویژگی محاسباتی است که توسط یک سیستم خبره در مغز ساخته شده است.
پیشنهادات اجرایی
نمادین یا ترکیبی
عامل توزیع هوشمند یادگیری مقاله اصلی: لیدا (معماری شناختی)
استن فرانکلین[49] یک معماری شناختی به نام LIDA ایجاد کرد که نظریه هوشیاری برنارد بارس[50] به نام نظریه فضای کاری جهانی را اجرا میکند. این به شدت به کدلتها[51] متکی است، که «عاملهای کوچک با هدف خاص، نسبتاً مستقل، معمولاً بهعنوان یک قطعه کوچک از کد اجرا میشوند که بهعنوان یک رشته مجزا اجرا میشود». هر عنصر شناخت که «چرخه شناختی» نامیده میشود به سه مرحله تقسیم میشود: درک، آگاهی و انتخاب عمل (که شامل یادگیری میشود). LIDA ایده اصلی نظریه فضای کاری جهانی را منعکس میکند که آگاهی به عنوان یک فضای کاری برای یکپارچهسازی و پخش مهمترین اطلاعات به منظور هماهنگ کردن فرآیندهای شناختی مختلف عمل میکند [55][56].
معماری شناختی CLARION
معماری شناختی CLARION ذهن را با استفاده از یک سیستم دو سطحی برای تمایز بین فرآیندهای آگاهانه ("صریح[52]") و ناخودآگاه ("ضمنی[53]") مدل میکند. این میتواند وظایف یادگیری مختلف، از ساده تا پیچیده را شبیهسازی کند، که به محققان کمک میکند تا در آزمایشات روانشناختی چگونگی عملکرد هوشیاری را مطالعه کنند.[57]
OpenCog
بن گورتزل[54] از طریق پروژه منبع باز OpenCog یک هوش مصنوعی تجسم یافته ساخت. این کد شامل حیوانات خانگی مجازی تجسم شده است که قادر به یادگیری دستورات ساده به زبان انگلیسی و همچنین ادغام با روباتیک دنیای واقعی هستند که در دانشگاه پلی تکنیک هنگ کنگ انجام شده است.
رابط
معماری شناختی هایکونن
پنتی هایکونن[55] محاسبات مبتنی بر قوانین کلاسیک[56] را برای دستیابی به AC ناکافی میداند: "مغز قطعا یک کامپیوتر نیست. تفکر اجرای رشتههای برنامهریزی شده دستورات نیست. مغز نیز یک ماشین حساب عددی نیست. ما با اعداد فکر نمیکنیم." هایکنن به جای تلاش برای دستیابی به ذهن و آگاهی از طریق شناسایی و اجرای قوانین محاسباتی زیربنایی آنها، "معماری شناختی ویژهای را برای بازتولید فرآیندهای ادراک، تصویرسازی درونی، گفتار درونی، درد، لذت، احساسات و کارکردهای شناختی پشت این موارد پیشنهاد میکند. این معماری از پایین به بالا، عملکردهای سطح بالاتری را با قدرت واحدهای پردازش ابتدایی، نورونهای مصنوعی، بدون الگوریتم یا برنامه تولید میکند." هایکونن معتقد است، زمانی که این معماری با پیچیدگی کافی اجرا شود، آگاهی را توسعه میدهد، که او آن را «سبک و شیوهای از عملکرد میداند که با بازنمایی سیگنال توزیعشده، فرآیند ادراک، گزارشدهی متقابل وجهی و در دسترس بودن برای بازنگری مشخص میشود».[58][59]
هایکونن در این دیدگاه فرآیندی از آگاهی، یا این دیدگاه که AC به طور خود به خود در عوامل خودمختار که دارای معماری پیچیدگی الهام گرفته از عصبی مناسب هستند، تنها نیست. اینها توسط بسیاری به اشتراک گذاشته شده است.[60][61] طبق گزارشها، اجرای کم پیچیدگی معماری پیشنهادی هایکونن قادر به AC نبود، اما احساسات را همانطور که انتظار می رفت نشان داد. هایکونن بعداً معماری خود را به روز کرد و خلاصه کرد.[62][63]
معماری شناختی شاناهان
موری شاناهان[57] یک معماری شناختی را توصیف میکند که ایده بارس از یک فضای کاری جهانی را با مکانیزمی برای شبیهسازی داخلی ("تخیل") ترکیب میکند.[64][2][3][65]
ماشین خلاقیت
استفان تالر در حق اختراع خود در سال 1994 به نام «دستگاهی برای تولید خودکار اطلاعات مفید[58]» (DAGUI)، [66][67][68] یا به اصطلاح «ماشین خلاقیت»، که در آن منتقدان محاسباتی بر تزریق نویزهای نادرست سیناپسی و تغییرات نادرست به من نظارت میکنند، ارتباط احتمالی بین آگاهی و خلاقیت را پیشنهاد کرد. ترکیباتی که ممکن است به عنوان ایدهها یا استراتژیهای بالقوه واجد شرایط باشند.[69] او این معماری و روش عصبی را برای توضیح احساس ذهنی آگاهی به کار می گیرد و ادعا میکند که مجموعههای عصبی مبتنی بر نویز مشابه در مغز اهمیت مشکوکی را برای فعالیت کلی قشر مغز ایجاد میکنند.[70][71][72] نظریه تالر و پتنتهای حاصل در آگاهی ماشینی از آزمایشهایی الهام گرفته شد که در آن او شبکههای عصبی آموزشدیده را بهطور درونی مختل کرد تا الگوهای فعالسازی عصبی متوالی را که او به جریان آگاهی تشبیه میکرد، هدایت کند [71][73][74].
"خود مدلسازی"
هاد لیپسون[59] «خود مدلسازی[60]» را به عنوان یک جزء ضروری خودآگاهی یا آگاهی در روباتها تعریف میکند. "خود مدلسازی" شامل یک روبات است که یک مدل داخلی یا شبیهسازی خود را اجرا میکند [77][78].
در داستان
همچنین ببینید: آگاهی شبیهسازی شده در داستان[61] و هوشمصنوعی در داستان[62]
در سال 2001: A Space Odyssey، ابررایانه هوشیار سفینه فضایی، HAL9000 دستور داده شد که هدف واقعی ماموریت را از خدمه پنهان کند. این دستورالعمل با برنامهریزی HAL برای ارائه اطلاعات دقیق در تضاد بود که منجر به ناهماهنگی شناختی[63] شد. هنگامی که متوجه میشود که اعضای خدمه قصد دارند آن را پس از یک حادثه خاموش کنند، HAL9000 تلاش میکند تا همه آنها را از بین ببرد، از ترس اینکه خاموش شدن ماموریت را به خطر بیندازد [79][80].
در شهر و ستارگان اثر آرتور سی کلارک، واناموند موجودی مصنوعی است که بر اساس درهم تنیدگی کوانتومی ساخته شده است که قرار بود بسیار قدرتمند شود، اما تقریباً هیچ چیز نمیدانست، بنابراین شبیه آگاهی مصنوعی بود.
در Westworld، اندرویدهای شبیه انسان به نام Hosts برای سرگرمی انسانها در یک زمین بازی تعاملی ساخته شدهاند. انسانها آزادند که ماجراجوییهای قهرمانانه داشته باشند، بلکه در ارتکاب شکنجه، تجاوز جنسی یا قتل نیز آزادند. و میزبانها معمولاً طوری طراحی میشوند که به انسان آسیب نرسانند [81][79].
در داستان کوتاه گرگ اگان[64] Learning to me بودن، جواهری کوچک در دوران نوزادی در سر مردم کاشته میشود. این جواهر حاوی یک شبکه عصبی است که می آموزد وفادارانه از مغز تقلید کند. دقیقاً به ورودیهای حسی مغز دسترسی دارد و دستگاهی به نام «معلم» آن را برای تولید همان خروجیها آموزش میدهد. برای جلوگیری از زوال ذهن با افزایش سن و به عنوان گامی به سوی جاودانگی دیجیتال، بزرگسالان تحت عمل جراحی قرار می گیرند تا کنترل بدن به جواهر داده شود و پس از آن مغز برداشته و از بین میرود. شخصیت اصلی نگران است که این روش او را بکشد، زیرا او با مغز بیولوژیکی همذات پنداری میکند. اما قبل از عمل جراحی، او نقص "معلم" را تحمل میکند. وحشت زده، متوجه میشود که بدن خود را کنترل نمیکند، که او را به این نتیجه میرساند که او جواهر است، و با مغز بیولوژیکی همگام نیست [82][83].
منابع
[1] Thaler, S. L. (1998). "The emerging intelligence and its critical look at us". Journal of Near-Death Studies. 17 (1): 21–29. doi:10.1023/A:1022990118714. S2CID 49573301.
[2] Gamez 2008.
[3] Reggia 2013.
[4] Smith, David Harris; Schillaci, Guido (2021). "Build a Robot With Artificial Consciousness? How to Begin? A Cross-Disciplinary Dialogue on the Design and Implementation of a Synthetic Model of Consciousness". Frontiers in Psychology. 12: 530560. doi:10.3389/fpsyg.2021.530560. ISSN 1664-1078. PMC 8096926. PMID 33967869.
[5] Elvidge, Jim (2018). Digital Consciousness: A Transformative Vision. John Hunt Publishing Limited. ISBN 978-1-78535-760-2. Archived from the original on 2023-07-30. Retrieved 2023-06-28.
[6] Chrisley, Ron (October 2008). "Philosophical foundations of artificial consciousness". Artificial Intelligence in Medicine. 44 (2): 119–137. doi:10.1016/j.artmed.2008.07.011. PMID 18818062.
[7] "The Terminology of Artificial Sentience". Sentience Institute. Archived from the original on 2024-09-25. Retrieved 2023-08-19.
[8] Kateman, Brian (2023-07-24). "AI Should Be Terrified of Humans". TIME. Archived from the original on 2024-09-25. Retrieved 2024-09-05.
[9] Graziano 2013.
[10] Block, Ned (2010). "On a confusion about a function of consciousness". Behavioral and Brain Sciences. 18 (2): 227–247. doi:10.1017/S0140525X00038188. ISSN 1469-1825. S2CID 146168066. Archived from the original on 2024-09-25. Retrieved 2023-06-22.
[11] Block, Ned (1978). "Troubles for Functionalism". Minnesota Studies in the Philosophy of Science: 261–325.
[12] Bickle, John (2003). Philosophy and Neuroscience. Dordrecht: Springer Netherlands. doi:10.1007/978-94-010-0237-0. ISBN 978-1-4020-1302-7. Archived from the original on 2024-09-25. Retrieved 2023-06-24.
[13] Schlagel, R. H. (1999). "Why not artificial consciousness or thought?". Minds and Machines. 9 (1): 3–28. doi:10.1023/a:1008374714117. S2CID 28845966.
[14] Searle, J. R. (1980). "Minds, brains, and programs" (PDF). Behavioral and Brain Sciences. 3 (3): 417–457. doi:10.1017/s0140525x00005756. S2CID 55303721. Archived (PDF) from the original on 2019-03-17. Retrieved 2019-01-28.
[15] Buttazzo, G. (2001). "Artificial consciousness: Utopia or real possibility?". Computer. 34 (7): 24–30. doi:10.1109/2.933500. Archived from the original on 2024-09-25. Retrieved 2024-07-31.
[16] Putnam, Hilary (1967). The nature of mental states in Capitan and Merrill (eds.) Art, Mind and Religion. University of Pittsburgh Press.
[17] Chalmers, David (1995). "Absent Qualia, Fading Qualia, Dancing Qualia". Conscious Experience.
[18] David J. Chalmers (2011). "A Computational Foundation for the Study of Cognition" (PDF). Journal of Cognitive Science. 12 (4): 325–359. doi:10.17791/JCS.2011.12.4.325. S2CID 248401010. Archived (PDF) from the original on 2023-11-23. Retrieved 2023-06-24.
[19] "An Introduction to the Problems of AI Consciousness". The Gradient. 2023-09-30. Retrieved 2024-10-05.
[20] "'I am, in fact, a person': can artificial intelligence ever be sentient?". the Guardian. 14 August 2022. Archived from the original on 25 September 2024. Retrieved 5 January 2023.
[21] Leith, Sam (7 July 2022). "Nick Bostrom: How can we be certain a machine isn't conscious?". The Spectator. Archived from the original on 5 January 2023. Retrieved 5 January 2023.
[22] Šekrst, Kristina (2024), "Chinese Chat Room: AI hallucinations, epistemology and cognition", Studies in Logic, Grammar and Rhetoric, 69 (1): 365–381, doi:10.2478/slgr-2024-0029
[23] Šekrst, Kristina (2025), "Do Large Language Models Hallucinate Electric Fata Morganas?", Journal of Consciousness Studies
[24] Chalmers, David J. (August 9, 2023). "Could a Large Language Model Be Conscious?". Boston Review.
[25] Véliz, Carissa (2016-04-14). "The Challenge of Determining Whether an A.I. Is Sentient". Slate. ISSN 1091-2339. Retrieved 2024-10-05.
[26] Birch, Jonathan (July 2024). "Large Language Models and the Gaming Problem". The Edge of Sentience. Oxford University Press. pp. 313–322. doi:10.1093/9780191966729.003.0017. ISBN 978-0-19-196672-9.
[27] Agüera y Arcas, Blaise; Norvig, Peter (October 10, 2023). "Artificial General Intelligence Is Already Here". Noéma.
[28] Kirk-Giannini, Cameron Domenico; Goldstein, Simon (2023-10-16). "AI is closer than ever to passing the Turing test for 'intelligence'. What happens when it does?". The Conversation. Archived from the original on 2024-09-25. Retrieved 2024-08-18.
[29] Victor Argonov (2014). "Experimental Methods for Unraveling the Mind-body Problem: The Phenomenal Judgment Approach". Journal of Mind and Behavior. 35: 51–70. Archived from the original on 2016-10-20. Retrieved 2016-12-06.
[30] "Should Robots With Artificial Intelligence Have Moral or Legal Rights?". The Wall Street Journal. April 10, 2023.
[31] Bostrom, Nick (2024). Deep utopia: life and meaning in a solved world. Washington, DC: Ideapress Publishing. p. 82. ISBN 978-1-64687-164-3.
[32] Sebo, Jeff; Long, Robert (11 December 2023). "Moral Consideration for AI Systems by 2030" (PDF). AI and Ethics. 5: 591–606. doi:10.1007/s43681-023-00379-1.
[33] Metzinger, Thomas (2021). "Artificial Suffering: An Argument for a Global Moratorium on Synthetic Phenomenology". Journal of Artificial Intelligence and Consciousness. 08: 43–66. doi:10.1142/S270507852150003X. S2CID 233176465.
[34] Tkachenko, Yegor (2024). "Position: Enforced Amnesia as a Way to Mitigate the Potential Risk of Silent Suffering in the Conscious AI". Proceedings of the 41st International Conference on Machine Learning. PMLR. Archived from the original on 2024-06-10. Retrieved 2024-06-11.
[35] Baars 1995.
[36] Aleksander, Igor (1995a). "Artificial neuroconsciousness an update". In Mira, José; Sandoval, Francisco (eds.). From Natural to Artificial Neural Computation. Lecture Notes in Computer Science. Vol. 930. Berlin, Heidelberg: Springer. pp. 566–583. doi:10.1007/3-540-59497-3_224. ISBN 978-3-540-49288-7. Archived from the original on 2024-09-25. Retrieved 2023-06-22.
[37] Seth, Anil. "Consciousness". New Scientist. Archived from the original on 2024-09-14. Retrieved 2024-09-05.
[38] Nosta, John (December 18, 2023). "Should Artificial Intelligence Have Rights?". Psychology Today. Archived from the original on 2024-09-25. Retrieved 2024-09-05.
[39] Joëlle Proust in Neural Correlates of Consciousness, Thomas Metzinger, 2000, MIT, pages 307–324
[40] Christof Koch, The Quest for Consciousness, 2004, page 2 footnote 2
[41] Tulving, E. 1985. Memory and consciousness. Canadian Psychology 26:1–12
[42] Franklin, Stan, et al. "The role of consciousness in memory." Brains, Minds and Media 1.1 (2005): 38.
[43] Franklin, Stan. "Perceptual memory and learning: Recognizing, categorizing, and relating." Proc. Developmental Robotics AAAI Spring Symp. 2005.
[44] Shastri, L. 2002. Episodic memory and cortico-hippocampal interactions. Trends in Cognitive Sciences
[45] Kanerva, Pentti. Sparse distributed memory. MIT press, 1988.
[46] "Implicit Learning and Consciousness: An Empirical, Philosophical and Computational Consensus in the Making". Routledge & CRC Press. Archived from the original on 2023-06-22. Retrieved 2023-06-22.
[47] Aleksander 1995.
[48] "Functionalism". Stanford Encyclopedia of Philosophy. Archived from the original on 2021-04-18. Retrieved 2024-09-08.
[49] "Survey Results | Consciousness: identity theory, panpsychism, eliminativism, dualism, or functionalism?". PhilPapers. 2020.
[50] Butlin, Patrick; Long, Robert; Elmoznino, Eric; Bengio, Yoshua; Birch, Jonathan; Constant, Axel; Deane, George; Fleming, Stephen M.; Frith, Chris; Ji, Xu; Kanai, Ryota; Klein, Colin; Lindsay, Grace; Michel, Matthias; Mudrik, Liad; Peters, Megan A. K.; Schwitzgebel, Eric; Simon, Jonathan; VanRullen, Rufin (2023). "Consciousness in Artificial Intelligence: Insights from the Science of Consciousness". arXiv:2308.08708 [cs.AI].
[51] Baars, Bernard J. (1988). A Cognitive Theory of Consciousness. Cambridge University Press. p. 345. ISBN 0521427436. Archived from the original on 2024-09-25. Retrieved 2024-09-05.
[52] Travers, Mark (October 11, 2023). "Are We Ditching the Most Popular Theory of Consciousness?". Psychology Today. Archived from the original on 2024-09-25. Retrieved 2024-09-05.
[53] "Higher-Order Theories of Consciousness". Stanford Encyclopedia of Philosophy. 15 Aug 2011. Archived from the original on 14 May 2008. Retrieved 31 August 2014.
[54] Graziano, Michael (1 January 2011). "Human consciousness and its relationship to social neuroscience: A novel hypothesis". Cognitive Neuroscience. 2 (2): 98–113. doi:10.1080/17588928.2011.565121. PMC 3223025. PMID 22121395.
[55] Franklin, Stan (January 2003). "IDA: A conscious artifact?". Journal of Consciousness Studies. Archived from the original on 2020-07-03. Retrieved 2024-08-25.
[56] J. Baars, Bernard; Franklin, Stan (2009). "Consciousness is computational: The Lida model of global workspace theory". International Journal of Machine Consciousness. 01: 23–32. doi:10.1142/S1793843009000050.
[57] (Sun 2002)
[58] Haikonen, Pentti O. (2003). The cognitive approach to conscious machines. Exeter: Imprint Academic. ISBN 978-0-907845-42-3.
[59] "Pentti Haikonen's architecture for conscious machines – Raúl Arrabales Moreno". 2019-09-08. Archived from the original on 2024-09-25. Retrieved 2023-06-24.
[60] Freeman, Walter J. (2000). How brains make up their minds. Maps of the mind. New York; Chichester, West Sussex: Columbia University Press. ISBN 978-0-231-12008-1.
[61] Cotterill, Rodney M. J. (2003). "CyberChild - A simulation test-bed for consciousness studies". Journal of Consciousness Studies. 10 (4–5): 31–45. ISSN 1355-8250. Archived from the original on 2024-09-25. Retrieved 2023-06-22.
[62] Haikonen, Pentti O.; Haikonen, Pentti Olavi Antero (2012). Consciousness and robot sentience. Series on machine consciousness. Singapore: World Scientific. ISBN 978-981-4407-15-1.
[63] Haikonen, Pentti O. (2019). Consciousness and robot sentience. Series on machine consciousness (2nd ed.). Singapore; Hackensack, NJ; London: World Scientific. ISBN 978-981-12-0504-0.
[64] Shanahan, Murray (2006). "A cognitive architecture that combines internal simulation with a global workspace". Consciousness and Cognition. 15 (2): 433–449. doi:10.1016/j.concog.2005.11.005. ISSN 1053-8100. PMID 16384715. S2CID 5437155.
[65] Haikonen, Pentti O.; Haikonen, Pentti Olavi Antero (2012). "chapter 20". Consciousness and robot sentience. Series on machine consciousness. Singapore: World Scientific. ISBN 978-981-4407-15-1.
[67] Thaler, S.L., "Device for the autonomous generation of useful information"
[67] Marupaka, N.; Lyer, L.; Minai, A. (2012). "Connectivity and thought: The influence of semantic network structure in a neurodynamical model of thinking" (PDF). Neural Networks. 32: 147–158. doi:10.1016/j.neunet.2012.02.004. PMID 22397950. Archived from the original (PDF) on 2016-12-19. Retrieved 2015-05-22.
[68] Roque, R. and Barreira, A. (2011). "O Paradigma da "Máquina de Criatividade" e a Geração de Novidades em um Espaço Conceitual," 3º Seminário Interno de Cognição Artificial – SICA 2011 – FEEC – UNICAMP.
[69] Minati, Gianfranco; Vitiello, Giuseppe (2006). "Mistake Making Machines". Systemics of Emergence: Research and Development. pp. 67–78. doi:10.1007/0-387-28898-8_4. ISBN 978-0-387-28899-4.
[70] Thaler, S. L. (2013) The Creativity Machine Paradigm, Encyclopedia of Creativity, Invention, Innovation, and Entrepreneurship Archived 2016-04-29 at the Wayback Machine, (ed.) E.G. Carayannis, Springer Science+Business Media
[71] Thaler, S. L. (2011). "The Creativity Machine: Withstanding the Argument from Consciousness," APA Newsletter on Philosophy and Computers
[72] Thaler, S. L. (2014). "Synaptic Perturbation and Consciousness". Int. J. Mach. Conscious. 6 (2): 75–107. doi:10.1142/S1793843014400137.
[73] Thaler, S. L. (1995). ""Virtual Input Phenomena" Within the Death of a Simple Pattern Associator". Neural Networks. 8 (1): 55–65. doi:10.1016/0893-6080(94)00065-t.
[74] Thaler, S. L. (1995). Death of a gedanken creature, Journal of Near-Death Studies, 13(3), Spring 1995
[75] Thaler, S. L. (1996). Is Neuronal Chaos the Source of Stream of Consciousness? In Proceedings of the World Congress on Neural Networks, (WCNN’96), Lawrence Erlbaum, Mawah, NJ.
[76] Mayer, H. A. (2004). A modular neurocontroller for creative mobile autonomous robots learning by temporal difference Archived 2015-07-08 at the Wayback Machine, Systems, Man and Cybernetics, 2004 IEEE International Conference(Volume:6 )
[77] Pavlus, John (11 July 2019). "Curious About Consciousness? Ask the Self-Aware Machines". Quanta Magazine. Archived from the original on 2021-01-17. Retrieved 2021-01-06.
[78] Bongard, Josh, Victor Zykov, and Hod Lipson. "Resilient machines through continuous self-modeling." Science 314.5802 (2006): 1118–1121.
[79] Wodinsky, Shoshana (2022-06-18). "The 11 Best (and Worst) Sentient Robots From Sci-Fi". Gizmodo. Archived from the original on 2023-11-13. Retrieved 2024-08-17.
[80] Sokolowski, Rachael (2024-05-01). "Star Gazing". Scotsman Guide. Archived from the original on 2024-08-17. Retrieved 2024-08-17.
[81[ Bloom, Paul; Harris, Sam (2018-04-23). "Opinion | It's Westworld. What's Wrong With Cruelty to Robots?". The New York Times. ISSN 0362-4331. Archived from the original on 2024-08-17. Retrieved 2024-08-17.
[82] Egan, Greg (July 1990). Learning to Be Me. TTA Press.
[83] Shah, Salik (2020-04-08). "Why Greg Egan Is Science Fiction's Next Superstar". Reactor. Archived from the original on 2024-05-16. Retrieved 2024-08-17.
[1] Sentience
[2] Qualia
[3] Neural Correlates of Consciousness
[4] Giorgio Buttazzo
[5] Artificial Consciousness: Utopia or Real Possibility
[6] unreprogrammation
[7] reprogrammed', from rethinking
[8] thought experiments
[9] functionally isomorphic
[10] fine-grained functional organization
[11] fading qualia
[12] reductio ad absurdum
[13] Blake Lemoine
[14] Nick Bostrom
[15] Kristina Šekrst
[16] hallucination
[17] reliabilism
[18] general intelligence
[19] hard problem of consciousness
[20] Victor Argonov
[21] non-Turing test for machine sentience
[22] when the consciousness is uncertain
[23] precautionary principle
[24] Thomas Metzinger
[25] Enforced amnesia
[26] brain organoids
[27] Bernard Baars
[28] definition and context setting, adaptation and learning, editing, flagging and debugging, recruiting and control, prioritizing and access-control, decision-making or executive function, analogy-forming function, metacognitive and self-monitoring function, and autoprogramming and self-maintenance function.
[29] Igor Aleksander
[30] the brain is a state machine, inner neuron partitioning, conscious and unconscious states, perceptual learning and memory, prediction, the awareness of self, representation of meaning, learning utterances, learning language, will, instinct, and emotion
[31] Awareness
[32] agency awareness, goal awareness, and sensorimotor awareness
[33] episodic memory
[34] procedural memory
[35] Axel Cleeremans
[36] Luis Jiménez
[37] philogenetically
[38] complex, unpredictable environments
[39] Anticipation
[40] emergentist multiple drafts principle
[41] Draft
[42] Functionalist theories
[43] Higher-order theories of consciousness
[44] higher-order thought
[45] higher-order perception
[46] Michael Graziano
[47] Sabine Kastler
[48] Human consciousness and its relationship to social neuroscience: A novel hypothesis
[49] Stan Franklin
[50] Bernard Baars's theory
[51] codelets
[52] explicit
[53] implicit
[54] Ben Goertzel
[55] Pentti Haikonen
[56] classical rule-based computing
[57] Murray Shanahan
[58] Device for the Autonomous Generation of Useful Information
[59] Hod Lipson
[60] self-modeling
[61] Simulated consciousness in fiction
[62] Artificial intelligence in fiction
[63] cognitive dissonance
[64] Greg Egan
عالی بود
سلام و درود.
باعث افتخار است که مطلب ارائه شده مورد توجه شما واقع گردید.