GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف
GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف

هوشیاری مصنوعی

آگاهی مصنوعی، [1] همچنین به عنوان آگاهی ماشینی، [2] [3] آگاهی مصنوعی، [4] یا آگاهی دیجیتال، [5] هشیاری است که فرض می‌شود در هوش‌مصنوعی ممکن است.[6] همچنین رشته تحصیلی مربوطه است که بینشهایی را از فلسفه ذهن، فلسفه هوش‌مصنوعی، علوم شناختی و علوم اعصاب در بر می‌گیرد.

همین اصطلاح را می‌توان با اصطلاح «احساس[1]» به‌جای «آگاهی» در هنگام مشخص کردن آگاهی پدیده‌ای (توانایی احساس کیفیت[2]) به کار برد.[7] از آنجایی که احساسات شامل توانایی تجربه حالات روحی مثبت یا منفی (یعنی پرقدرت) از نظر اخلاقی است، ممکن است نگرانی‌های رفاهی و حمایت قانونی را مانند حیوانات توجیه کند.[8]

برخی از محققان بر این باورند که هوشیاری با عملکرد متقابل بخش‌های مختلف مغز ایجاد می‌شود. این مکانیسم ها به عنوان همبستگی عصبی آگاهی[3] یا NCC نامگذاری می‌شوند. برخی دیگر بر این باورند که ساختن یک سیستم (به عنوان مثال، یک سیستم کامپیوتری) که می‌تواند این تعامل NCC را تقلید کند، منجر به سیستمی می‌شود که آگاه است.[9]

 

دیدگاههای فلسفی

از آنجایی که انواع فرضیههای زیادی از آگاهی وجود دارد، پیادهسازی‌های بالقوه بسیاری از آگاهی مصنوعی وجود دارد. در ادبیات فلسفی، شاید رایجترین طبقه‌بندی آگاهی به انواع «دسترسی» و «پدیدار» باشد. آگاهی دسترسی به آن جنبه‌هایی از تجربه مربوط می‌شود که می‌توان آن‌ها را درک کرد، در حالی که آگاهی پدیداری به آن جنبه‌هایی از تجربه مربوط می‌شود که ظاهراً نمی‌توان آنها را درک کرد، در عوض به‌طور کیفی بر حسب «احساسات خام»، «چگونه است» یا کیفیت توصیف می‌شوند.[10]

 

بحث معقول بودن

نظریهپردازان هویت نوع و دیگر شکاکان بر این عقیده هستند که آگاهی فقط در سیستمهای فیزیکی خاص قابل تحقق است زیرا آگاهی دارای ویژگی‌هایی است که لزوماً به ساختار فیزیکی بستگی دارد.[11][12][13][14] جورجیو بوتازو[4] در مقاله خود در سال 2001 با عنوان "آگاهی مصنوعی: اتوپیا یا امکان واقعی[5]" می‌گوید که یک اعتراض رایج به آگاهی مصنوعی این است که با کار در یک حالت کاملاً خودکار، آنها [رایانهها] نمی‌توانند خلاقیت، برنامه‌ریزی مجدد[6] (که به معنای برنامه‌ریزی مجدد، برنامه‌ریزی مجدد[7]، یا برنامه‌ریزی مجدد از

کامپیوتر، دیگر نمی‌توانند از کامپیوتر بازبرنامه‌ریزی شوند. مانند ماشین لباسشویی، برده‌ای است که توسط اجزای آن کار می‌کند.»[15]

برای نظریه پردازان دیگر (به عنوان مثال، کارکردگرایان)، که حالات ذهنی را بر حسب نقش‌های علی تعریف می‌کنند، هر سیستمی که بتواند الگوی یکسانی از نقش‌های علی را بدون توجه به ساختار فیزیکی نشان دهد، همان حالات ذهنی، از جمله آگاهی را نشان می‌دهد.[16]

   

آزمایشهای فکری

دیوید چالمرز دو آزمایش فکری[8] را پیشنهاد کرد که قصد داشت نشان دهد که سیستم‌های "هم‌شکلی عملکردی[9]" (آنهایی که دارای "سازمان عملکردی ریزدانه[10]" یکسان هستند، یعنی پردازش اطلاعات یکسان) فارغ از اینکه مبتنی بر نورون‌های بیولوژیکی یا سخت‌افزار دیجیتال هستند، تجربیات آگاهانه کیفی یکسانی خواهند داشت.[17][18]

«کیفیت محو شدن[11]» یک آزمایش فکری تقلیل‌یافته[12] است. این شامل جایگزینی یک به یک، نورون‌های مغز با یک جزء عملکردی یکسان، به عنوان مثال بر اساس یک تراشه سیلیکونی است. از آنجایی که نورون‌های اصلی و همتایان سیلیکونی آنها از نظر عملکردی یکسان هستند، پردازش اطلاعات مغز باید بدون تغییر باقی بماند و سوژه هیچ تفاوتی را متوجه نشود. با این حال، اگر کیفیات (مانند تجربه ذهنی قرمز روشن) محو یا ناپدید شوند، آزمودنی احتمالاً متوجه این تغییر می‌شود که باعث تناقض می‌شود. چالمرز نتیجه می‌گیرد که فرضیه محو کیفیت در عمل غیرممکن است، و مغز روباتیک حاصل، زمانی که هر نورون جایگزین شود، به اندازه مغز بیولوژیکی اولیه حساس باقی می‌ماند.[17]

به طور مشابه، آزمایش فکری «کیفیت رقص» یکی دیگر از استدلال‌های فکری تقلیل‌یافته است. فرض می‌کند که دو سیستم هم‌شکل عملکردی می‌توانند ادراک متفاوتی داشته باشند (به عنوان مثال، دیدن یک شی در رنگ‌های مختلف، مانند قرمز و آبی). این شامل یک سوئیچ است که به طور متناوب بین قسمتی از مغز که باعث درک رنگ قرمز می‌شود و یک تراشه سیلیکونی ایزومورفیک که باعث درک رنگ آبی می‌شود، تغییر می‌کند. از آنجایی که هر دو عملکرد یکسانی را در مغز انجام می‌دهند، سوژه در حین سوئیچ متوجه هیچ تغییری نمی‌شود. چالمرز استدلال می‌کند که اگر این کیفیت واقعاً بین قرمز و آبی تغییر کند، بسیار غیرممکن است، از این رو تناقض وجود دارد. بنابراین، او نتیجه می‌گیرد که سیستم دیجیتال معادل نه تنها کیفیت را تجربه می‌کند، بلکه همان کیفیات سیستم بیولوژیکی را درک می‌کند (به عنوان مثال، دیدن یک رنگ).[17][19]

منتقدان احساسات مصنوعی مخالف هستند که پیشنهاد چالمرز با این فرض که همه ویژگی‌های ذهنی و ارتباطات بیرونی به اندازه کافی توسط سازمان علّی انتزاعی تسخیر شده‌اند، این سؤال را مطرح می‌کند.

 

در مدل‌های زبان بزرگ

در سال 2022، مهندس گوگل بلیک لمواین[13] ادعای ویروسی کرد که چت ربات LaMDA گوگل حساس است. لمواین به عنوان مدرک پاسخ‌های انسانی چت بات را به بسیاری از سوالات خود ارائه کرد. با این حال، رفتار ربات چت توسط جامعه علمی به عنوان نتیجه تقلید به جای احساسات ماشینی ارزیابی شد. ادعای لمواین به دلیل مضحک بودن به طور گسترده مورد تمسخر قرار گرفت.[20] با این حال، در حالی که فیلسوف نیک بوستروم[14] بیان می‌کند که LaMDA بعید است که آگاه باشد، او علاوه بر این این سوال را مطرح می‌کند که "چه دلیلی برای اطمینان از آن وجود دارد؟" شخص باید به اطلاعات منتشر نشده در مورد معماری LaMDA دسترسی داشته باشد، و همچنین باید بفهمد که هوشیاری چگونه کار می‌کند، و سپس نحوه ترسیم این فلسفه را بر روی ماشین بیابد: "(در غیاب این مراحل)، به نظر می‌رسد که ممکن است کمی نامطمئن باشد. [...] در حال حاضر، یا در آینده نسبتاً نزدیک، می‌توانند سیستم‌های دیگری وجود داشته باشند که این معیارها را برآورده می‌کنند.

کریستینا شکرست[15] هشدار می‌دهد که اصطلاحات انسانی مانند "توهم[16]" می‌توانند تفاوت‌های هستی شناختی مهم بین شناخت مصنوعی و انسانی را پنهان کنند. در حالی که LLMها ممکن است خروجی‌هایی شبیه انسان ایجاد کنند، او استدلال می‌کند که نسبت دادن حالات ذهنی یا آگاهی به آنها را توجیه نمی‌کند. در عوض، او از یک چارچوب معرفت‌شناختی (مانند پایایی‌گرایی[17]) دفاع می‌کند که ماهیت متمایز تولید دانش هوش‌مصنوعی را تشخیص می‌دهد.[22] او پیشنهاد می‌کند که درک ظاهری در LLM ممکن است شکل پیچیدهای از توهم هوش‌مصنوعی باشد. او همچنین می‌پرسد که اگر یک LLM بدون هیچ اشاره‌ای به هوشیاری آموزش ببیند، چه اتفاقی می‌افتد.[23]

دیوید چالمرز در سال 2023 استدلال کرد که امروزه LLMها توانایی‌های محاوره‌ای و هوش عمومی[18] قابل توجهی از خود نشان می‌دهند، اما احتمالاً هنوز آگاه نیستند، زیرا فاقد برخی ویژگی‌هایی هستند که ممکن است، مانند پردازش مکرر، فضای کاری جهانی، و آژانس یکپارچه ضروری باشد. با این وجود، او معتقد است که سیستم‌های غیرزیستی می‌توانند آگاه باشند، و پیشنهاد کرد که مدل‌های توسعه‌یافته آینده (LLM+s) که این عناصر را در خود جای می‌دهند، ممکن است در نهایت معیارهای آگاهی را برآورده کنند و هم سؤالات علمی عمیق و هم چالش‌های اخلاقی مهمی را ایجاد کنند.[24]

 

تست کردن

کیفیت یا آگاهی پدیدارشناختی، ذاتاً یک پدیده اول شخص است. به همین دلیل، و فقدان یک تعریف تجربی از احساس، اندازه‌گیری مستقیم آن ممکن است غیرممکن باشد. اگرچه سیستمها ممکن است رفتارهای متعدد مرتبط با احساس را نشان دهند، تعیین اینکه آیا یک سیستم حساس است یا خیر به عنوان مسئله سخت آگاهی[19] شناخته می‌شود. در مورد هوش‌مصنوعی، این دشواری اضافی وجود دارد که ممکن است هوش‌مصنوعی آموزش ببیند تا مانند یک انسان عمل کند، یا انگیزهای برای به نظر رسیدن احساساتی داشته باشد، که نشانگرهای رفتاری احساسات را کمتر قابل اعتماد می‌کند.[25][26] علاوه بر این، برخی از ربات‌های گفتگو آموزش دیده‌اند تا بگویند هوشیار نیستند.[27]

یک روش شناخته شده برای آزمایش هوش ماشین، تست تورینگ است که توانایی انجام مکالمه شبیه انسان را ارزیابی می‌کند. اما قبولی در آزمون تورینگ نشان نمی‌دهد که یک سیستم هوش‌مصنوعی حساس است، زیرا هوش‌مصنوعی ممکن است به سادگی رفتار انسان را بدون داشتن احساسات مرتبط تقلید کند.[28]

در سال 2014، ویکتور آرگونوف[20] آزمایش غیر تورینگی را برای احساسات ماشینی[21] بر اساس توانایی ماشین در تولید قضاوت‌های فلسفی پیشنهاد کرد.[29] او استدلال می‌کند که یک ماشین جبرگرا باید آگاه تلقی شود اگر بتواند درباره همه ویژگی‌های مسئله‌ساز آگاهی (مانند کیفیت یا الزام‌آوری) قضاوت کند، بدون اینکه دانش فلسفی ذاتی (از پیش بارگذاری‌شده) در مورد این موضوعات، هیچ بحث فلسفی در حین یادگیری وجود نداشته باشد، و هیچ مدل اطلاعاتی موجودات دیگر ممکن است به طور ضمنی حاوی این دانش‌ها یا مدل‌های تلویحی در مورد حافظه‌اش نباشد. آگاهی موجودات). با این حال، این آزمایش را می‌توان تنها برای تشخیص، اما نه رد وجود هوشیاری استفاده کرد. یک نتیجه مثبت ثابت می‌کند که ماشین هوشیار است اما یک نتیجه منفی چیزی را ثابت نمی‌کند. به عنوان مثال، فقدان قضاوت‌های فلسفی ممکن است ناشی از فقدان عقل ماشینی، نه فقدان آگاهی باشد.

 

اخلاق

مقالات اصلی: اخلاق هوش‌مصنوعی، اخلاق ماشین، و اخلاق رباتیک

اگر مشکوک بود که یک ماشین خاص آگاه است، حقوق آن یک موضوع اخلاقی است که باید ارزیابی شود (مثلاً چه حقوقی بر اساس قانون خواهد داشت).[30] به عنوان مثال، یک رایانه آگاه که در اختیار داشت و به عنوان یک ابزار یا رایانه مرکزی در یک ماشین بزرگتر استفاده می‌شد، یک ابهام خاص است. آیا برای چنین موردی باید قوانینی وضع کرد؟ آگاهی نیز در این مورد خاص نیاز به تعریف قانونی دارد. از آنجا که آگاهی مصنوعی هنوز تا حد زیادی یک موضوع نظری است، چنین اخلاقی تا حد زیادی مورد بحث یا توسعه قرار نگرفته است، اگرچه اغلب موضوعی در داستان بوده است.

عموماً احساس برای ملاحظات اخلاقی کافی در نظر گرفته می‌شود، اما برخی فیلسوفان معتقدند که ملاحظات اخلاقی می‌تواند از مفاهیم دیگر آگاهی، یا از قابلیت‌های غیرمرتبط با آگاهی ناشی شود، [31] [32] مانند: «درک پیچیده‌ای از خود به‌عنوان ماندگار در طول زمان؛ داشتن اختیار و توانایی برای پیگیری دلایل ارتباطی و توانایی پاسخگویی طولانی‌مدت به هنجار. و قدرت داشتن در روابط اجتماعی خاص با سایر موجودات که دارای موقعیت اخلاقی هستند و قادر به ایجاد تعهدات متقابل هستند.

نگرانی‌های اخلاقی هنوز هم اعمال می‌شود (اگرچه به میزان کمتری) زمانی که آگاهی نامطمئن[22] است، تا زمانی که احتمال آن غیر قابل چشم‌پوشی تلقی شود. اگر هزینه اخلاقی نسبت دادن یا انکار اشتباه ملاحظات اخلاقی به هوش‌مصنوعی به طور قابل توجهی متفاوت باشد، اصل احتیاط[23] نیز مرتبط است.[32][8]

در سال 2021، توماس متزینگر[24]، فیلسوف آلمانی، برای تعلیق جهانی پدیدارشناسی مصنوعی تا سال 2050 استدلال کرد. دیوید چالمرز همچنین استدلال کرد که ایجاد هوش‌مصنوعی آگاهانه «گروه جدیدی از چالش‌های اخلاقی دشوار را با پتانسیل شکل‌های جدید بی‌عدالتی ایجاد می‌کند».[24]

فراموشی اجباری[25] به عنوان راهی برای کاهش خطر رنج خاموش در هوش مصنوعی آگاهانه قفل شده و برخی سیستم‌های بیولوژیکی مجاور با هوش مصنوعی مانند ارگانوئیدهای مغزی[26] پیشنهاد شده است.[34]

 

جنبههای آگاهی

برنارد بارس[27] و دیگران استدلال می‌کنند که جنبه‌های مختلفی از آگاهی لازم است تا یک ماشین به طور مصنوعی هوشیار باشد.[35] کارکردهای آگاهی پیشنهاد شده توسط بارس عبارتند از: تعریف و تنظیم زمینه، انطباق و یادگیری، ویرایش، پرچم‌گذاری و اشکال‌زدایی، استخدام و کنترل، اولویت‌بندی و کنترل دسترسی، تصمیم‌گیری یا عملکرد اجرایی، عملکرد تشکل‌دهنده قیاس، عملکرد فراشناختی و خود نظارتی، و خودبرنامه‌نویسی و خودنگهداری[28]. ایگور الکساندر[29] 12 اصل را برای آگاهی مصنوعی پیشنهاد کرد: [36] مغز یک ماشین حالت، تقسیم نورون درونی، حالات خودآگاه و ناخودآگاه، یادگیری و حافظه ادراکی، پیش بینی، آگاهی از خود، بازنمایی معنا، یادگیری جملات، یادگیری زبان، اراده، غریزه و احساسات است[30]. هدف AC این است که تعریف کند که آیا و چگونه می‌توان این و سایر جنبه‌های آگاهی را در یک مصنوع مهندسی شده مانند یک کامپیوتر دیجیتال سنتز کرد. این فهرست جامع نیست. بسیاری دیگر هستند که پوشش داده نشده‌اند.

 

تجربه ذهنی

برخی از فیلسوفان، مانند دیوید چالمرز، اصطلاح آگاهی را منحصراً برای اشاره به آگاهی پدیداری، که تقریباً معادل احساس است، به کار می برند. برخی دیگر از واژه احساس برای اشاره انحصاری به تجربیات ذهنی (از لحاظ اخلاقی مثبت یا منفی) مانند لذت یا رنج استفاده می‌کنند.[24] توضیح اینکه چرا و چگونه تجربه ذهنی پدید می‌آید به عنوان مسئله سخت آگاهی شناخته می‌شود.[37] احساس هوش‌مصنوعی نگرانی‌هایی را در مورد رفاه و حمایت قانونی ایجاد می‌کند، [8] در حالی که سایر جنبه‌های آگاهی مرتبط با قابلیت‌های شناختی ممکن است برای حقوق هوش‌مصنوعی مرتبط‌تر باشد.[38]

 

آگاهی

آگاهی[31] می‌تواند یکی از جنبه‌های ضروری باشد، اما در تعریف دقیق آگاهی مسائل زیادی وجود دارد. نتایج آزمایش‌های اسکن عصبی روی میمون‌ها نشان می‌دهد که یک فرآیند، نه تنها یک حالت یا شی، نورون‌ها را فعال می‌کند. آگاهی شامل ایجاد و آزمایش مدل‌های جایگزین از هر فرآیند بر اساس اطلاعات دریافتی از طریق حواس یا تصور، است و همچنین برای پیش‌بینی مفید است. چنین مدل‌سازی نیاز به انعطاف‌پذیری زیادی دارد. ایجاد چنین مدلی شامل مدل‌سازی دنیای فیزیکی، مدل‌سازی حالات و فرآیندهای درونی خود و مدل‌سازی سایر موجودات آگاه است.

حداقل سه نوع آگاهی وجود دارد: [39] آگاهی عاملی، آگاهی هدف، و آگاهی حسی-حرکتی[32]، که ممکن است آگاهانه باشد یا نباشد. به عنوان مثال، در آگاهی از آژانس، ممکن است بدانید که دیروز عمل خاصی را انجام داده‌اید، اما اکنون از آن آگاه نیستید. در آگاهی از هدف، ممکن است بدانید که باید به دنبال یک شی گم شده بگردید، اما اکنون از آن آگاه نیستید. در هوشیاری حسی-حرکتی، ممکن است بدانید که دستتان روی یک جسم قرار گرفته است، اما اکنون از آن آگاه نیستید.

از آنجا که اشیاء آگاهی اغلب آگاه هستند، تمایز بین Awareness و Conscious غالباً مبهم است یا به عنوان مترادف به کار می‌روند.[40]

 

حافظه

رویدادهای آگاهانه با سیستمهای حافظه در یادگیری، تمرین و بازیابی تعامل دارند.[41] مدل IDA [42] نقش آگاهی را در به روز رسانی حافظه ادراکی، [43] حافظه اپیزودیک[33] گذرا و حافظه رویهای[34] روشن می‌کند. خاطرات گذرا اپیزودیک و اعلامی بازنمایی‌هایی را در IDA توزیع کرده‌اند. شواهدی وجود دارد که در سیستم عصبی نیز چنین است.[44] در IDA، این دو حافظه به صورت محاسباتی با استفاده از نسخه اصلاح شده معماری حافظه توزیع شده پراکنده Kanerva پیادهسازی می‌شوند.[45]

 

یادگیری

یادگیری برای آگاهی مصنوعی نیز ضروری تلقی می‌شود. به گفته برنارد بارس، تجربه آگاهانه برای بازنمایی و انطباق با رویدادهای بدیع و مهم مورد نیاز است.[35] به گفته اکسل کلیرمانس[35] و لوئیس جیمنز[36]، یادگیری به عنوان "مجموعه‌ای از فرآیندهای سازگاری پیشرفته فیلوژنتیکی[37] که به طور انتقادی به حساسیت تکامل یافته به تجربه ذهنی بستگی دارد تا عوامل را قادر می‌سازد تا کنترل انعطاف‌پذیری بر اعمال خود در محیطهای پیچیده و غیرقابل پیشبینی[38] داشته باشند" تعریف می‌شود.[46]

 

پیش بینی[39]

ایگور الکساندر توانایی پیش‌بینی (یا پیش‌بینی) رویدادهای قابل پیش‌بینی را برای هوش‌مصنوعی مهم می‌داند.[47] اصل پیشنویسهای چندگانه اضطراری[40] ارائه شده توسط دانیل دنت در توضیح آگاهی ممکن است برای پیشبینی مفید باشد: این اصل شامل ارزیابی و انتخاب مناسب‌ترین "پیشنویس[41]" برای تناسب با محیط فعلی است. پیش‌بینی شامل پیش‌بینی پیامدهای اقدامات پیشنهادی خود و پیش‌بینی پیامدهای اقدامات احتمالی توسط سایر نهادها است.

روابط بین حالات دنیای واقعی در ساختار حالت یک ارگانیسم آگاه منعکس می‌شود و ارگانیسم را قادر می‌سازد وقایع را پیشبینی کند.[47] یک ماشین هوشیار مصنوعی باید بتواند رویدادها را به درستی پیش بینی کند تا در هنگام وقوع آنها آماده پاسخگویی به آنها یا انجام اقدامات پیشگیرانه برای جلوگیری از رویدادهای پیش بینی شده باشد. مفهوم اینجا این است که ماشین به اجزای زمان واقعی و انعطاف‌پذیر نیاز دارد که مدل‌های فضایی، دینامیکی، آماری، عملکردی و علت معلولی از دنیای واقعی و جهان‌های پیش‌بینی‌شده را بسازد، و این امکان را فراهم می‌کند که نشان دهد در حال و آینده و نه تنها در گذشته، دارای آگاهی مصنوعی است. برای انجام این کار، یک ماشین آگاه باید پیش‌بینی‌ها و برنامه‌های احتمالی منسجمی را انجام دهد، نه تنها در جهان‌هایی با قوانین ثابت مانند یک صفحه شطرنج، بلکه برای محیط‌های جدیدی که ممکن است تغییر کنند، فقط در صورت مناسب برای شبیه‌سازی و کنترل دنیای واقعی اجرا شوند.

 

نظریههای کارکردگرایانه[42] آگاهی

کارکردگرایی نظریهای است که حالات ذهنی را با نقش‌های عملکردی آن‌ها (روابط علّی آن‌ها با ورودی‌های حسی، سایر حالات ذهنی و برون دادهای رفتاری) تا با ترکیب فیزیکی آن‌ها تعریف می‌کند. بر اساس این دیدگاه، آنچه چیزی را به حالت روانی خاصی تبدیل می‌کند، مانند درد یا باور، ماده‌ای نیست که از آن ساخته شده است، بلکه نقشی است که در سیستم شناختی کلی ایفا می‌کند. این امکان را فراهم می‌کند که حالات ذهنی، از جمله آگاهی، بر روی بسترهای غیر بیولوژیکی تحقق یابد، تا زمانی که روابط کارکردی درست را نشان دهد.[48] کارکردگرایی در میان فیلسوفان محبوبیت خاصی دارد.[49]

مطالعه‌ای در سال 2023 نشان داد که مدل‌های زبان بزرگ کنونی احتمالاً معیارهای آگاهی پیشنهاد شده توسط این نظریه‌ها را برآورده نمی‌کنند، اما سیستم‌های هوش‌مصنوعی نسبتاً ساده‌ای که این نظریه‌ها را برآورده می‌کنند، می‌توانند ایجاد شوند. این مطالعه همچنین تصدیق کرد که حتی برجسته‌ترین تئوری‌های آگاهی ناقص و در معرض بحث‌های مداوم باقی می‌مانند.[50]

 

نظریه فضای کاری جهانی

مقاله اصلی: نظریه فضای کاری جهانی

این نظریه ذهن را به یک تئاتر تشبیه می‌کند، در حالی که فکر آگاهانه مانند موادی است که در صحنه اصلی روشن می‌شود. مغز شامل بسیاری از فرآیندها یا ماژول‌های تخصصی (مانند بینایی، زبان یا حافظه) است که به صورت موازی عمل می‌کنند که بیشتر آنها ناخودآگاه هستند. توجه به عنوان نورافکن عمل می‌کند و بخشی از این فعالیت ناخودآگاه را به آگاهی آگاهانه در فضای کاری جهانی می‌رساند. فضای کاری جهانی به عنوان مرکزی برای پخش و یکپارچهسازی اطلاعات عمل می‌کند و امکان به اشتراک‌گذاری و پردازش آن را در ماژول‌های مختلف تخصصی فراهم می‌کند. برای مثال، هنگام خواندن یک کلمه، ماژول بصری حروف را تشخیص می‌دهد، ماژول زبان معنا را تفسیر می‌کند، و ماژول حافظه ممکن است اطلاعات مرتبط را به خاطر بیاورد - همه از طریق فضای کاری جهانی هماهنگ شده‌اند.[51][52]

 

تئوری‌های مرتبه بالاتر آگاهی

نظریههای مرتبه بالاتر آگاهی[43] پیشنهاد می‌کنند که یک حالت ذهنی زمانی آگاه می‌شود که موضوع بازنمایی مرتبه بالاتر، مانند یک فکر یا ادراک در مورد آن حالت باشد. این نظریهها استدلال می‌کنند که آگاهی از رابطه بین حالات ذهنی درجه پایین و آگاهی مرتبه بالاتر از آن حالات ناشی می‌شود. انواع مختلفی از جمله نظریههای تفکر مرتبه بالاتر[44] (HOT) و ادراک مرتبه بالاتر[45] (HOP) وجود دارد.[53][52]

 

نظریه طرحواره توجه

در سال 2011، مایکل گرازیانو[46] و سابین کاستلر[47] مقاله‌ای به نام "آگاهی انسان و رابطه آن با علوم اعصاب اجتماعی: یک فرضیه جدید[48]" منتشر کردند که نظریهای از آگاهی را به عنوان طرح واره توجه پیشنهاد می‌کرد.[54] گرازیانو در ادامه بحث گسترده‌ای درباره این نظریه در کتاب خود «آگاهی و مغز اجتماعی» منتشر کرد.[9] این طرح‌واره توجه نظریه آگاهی، همانطور که او آن را نامگذاری کرد، پیشنهاد می‌کند که مغز توجه را به ورودی‌های حسی مختلف از طریق یک طرحواره توجه دنبال می‌کند، مشابه طرحواره بدنی که به خوبی مطالعه شده است که مکان فضایی بدن فرد را ردیابی می‌کند.[9] این به آگاهی مصنوعی با پیشنهاد مکانیسمی خاص برای دست زدن به اطلاعات مربوط می‌شود، که آنچه را که ما ظاهراً تجربه می‌کنیم و به عنوان آگاهی توصیف می‌کنیم، تولید می‌کند و باید بتواند توسط ماشینی با استفاده از فناوری فعلی تکرار شود. وقتی مغز متوجه می‌شود که شخص X از چیز Y آگاه است، در واقع حالتی را مدل‌سازی می‌کند که در آن شخص X افزایش توجه را به Y اعمال می‌کند. در نظریه طرحواره توجه، همین فرآیند را می‌توان برای خود نیز اعمال کرد. مغز توجه را به ورودی‌های حسی مختلف دنبال می‌کند و آگاهی خود یک مدل طرحواره‌ای از توجه فرد است. گرازیانو مکان‌های خاصی را در مغز برای این فرآیند پیشنهاد می‌کند و پیشنهاد می‌کند که چنین آگاهی یک ویژگی محاسباتی است که توسط یک سیستم خبره در مغز ساخته شده است.

 

پیشنهادات اجرایی

نمادین یا ترکیبی

عامل توزیع هوشمند یادگیری مقاله اصلی: لیدا (معماری شناختی)

استن فرانکلین[49] یک معماری شناختی به نام LIDA ایجاد کرد که نظریه هوشیاری برنارد بارس[50] به نام نظریه فضای کاری جهانی را اجرا می‌کند. این به شدت به کدلت‌ها[51] متکی است، که «عامل‌های کوچک با هدف خاص، نسبتاً مستقل، معمولاً به‌عنوان یک قطعه کوچک از کد اجرا می‌شوند که به‌عنوان یک رشته مجزا اجرا می‌شود». هر عنصر شناخت که «چرخه شناختی» نامیده می‌شود به سه مرحله تقسیم می‌شود: درک، آگاهی و انتخاب عمل (که شامل یادگیری می‌شود). LIDA ایده اصلی نظریه فضای کاری جهانی را منعکس می‌کند که آگاهی به عنوان یک فضای کاری برای یکپارچهسازی و پخش مهم‌ترین اطلاعات به منظور هماهنگ کردن فرآیندهای شناختی مختلف عمل می‌کند [55][56].

 

معماری شناختی CLARION

معماری شناختی CLARION ذهن را با استفاده از یک سیستم دو سطحی برای تمایز بین فرآیندهای آگاهانه ("صریح[52]") و ناخودآگاه ("ضمنی[53]") مدل می‌کند. این می‌تواند وظایف یادگیری مختلف، از ساده تا پیچیده را شبیه‌سازی کند، که به محققان کمک می‌کند تا در آزمایشات روانشناختی چگونگی عملکرد هوشیاری را مطالعه کنند.[57]

 

OpenCog

بن گورتزل[54] از طریق پروژه منبع باز OpenCog یک هوش مصنوعی تجسم یافته ساخت. این کد شامل حیوانات خانگی مجازی تجسم شده است که قادر به یادگیری دستورات ساده به زبان انگلیسی و همچنین ادغام با روباتیک دنیای واقعی هستند که در دانشگاه پلی تکنیک هنگ کنگ انجام شده است.

 

رابط

معماری شناختی هایکونن

پنتی هایکونن[55] محاسبات مبتنی بر قوانین کلاسیک[56] را برای دستیابی به AC ناکافی می‌داند: "مغز قطعا یک کامپیوتر نیست. تفکر اجرای رشته‌های برنامه‌ریزی شده دستورات نیست. مغز نیز یک ماشین حساب عددی نیست. ما با اعداد فکر نمی‌کنیم." هایکنن به جای تلاش برای دستیابی به ذهن و آگاهی از طریق شناسایی و اجرای قوانین محاسباتی زیربنایی آنها، "معماری شناختی ویژهای را برای بازتولید فرآیندهای ادراک، تصویرسازی درونی، گفتار درونی، درد، لذت، احساسات و کارکردهای شناختی پشت این موارد پیشنهاد می‌کند. این معماری از پایین به بالا، عملکردهای سطح بالاتری را با قدرت واحدهای پردازش ابتدایی، نورون‌های مصنوعی، بدون الگوریتم یا برنامه تولید می‌کند." هایکونن معتقد است، زمانی که این معماری با پیچیدگی کافی اجرا شود، آگاهی را توسعه می‌دهد، که او آن را «سبک و شیوه‌ای از عملکرد می‌داند که با بازنمایی سیگنال توزیع‌شده، فرآیند ادراک، گزارش‌دهی متقابل وجهی و در دسترس بودن برای بازنگری مشخص می‌شود».[58][59]

هایکونن در این دیدگاه فرآیندی از آگاهی، یا این دیدگاه که AC به طور خود به خود در عوامل خودمختار که دارای معماری پیچیدگی الهام گرفته از عصبی مناسب هستند، تنها نیست. اینها توسط بسیاری به اشتراک گذاشته شده است.[60][61] طبق گزارش‌ها، اجرای کم پیچیدگی معماری پیشنهادی هایکونن قادر به AC نبود، اما احساسات را همانطور که انتظار می رفت نشان داد. هایکونن بعداً معماری خود را به روز کرد و خلاصه کرد.[62][63]

 

معماری شناختی شاناهان

موری شاناهان[57] یک معماری شناختی را توصیف می‌کند که ایده بارس از یک فضای کاری جهانی را با مکانیزمی برای شبیهسازی داخلی ("تخیل") ترکیب می‌کند.[64][2][3][65]

 

ماشین خلاقیت

استفان تالر در حق اختراع خود در سال 1994 به نام «دستگاهی برای تولید خودکار اطلاعات مفید[58]» (DAGUI)، [66][67][68] یا به اصطلاح «ماشین خلاقیت»، که در آن منتقدان محاسباتی بر تزریق نویزهای نادرست سیناپسی و تغییرات نادرست به من نظارت می‌کنند، ارتباط احتمالی بین آگاهی و خلاقیت را پیشنهاد کرد. ترکیباتی که ممکن است به عنوان ایدهها یا استراتژی‌های بالقوه واجد شرایط باشند.[69] او این معماری و روش عصبی را برای توضیح احساس ذهنی آگاهی به کار می گیرد و ادعا می‌کند که مجموعه‌های عصبی مبتنی بر نویز مشابه در مغز اهمیت مشکوکی را برای فعالیت کلی قشر مغز ایجاد می‌کنند.[70][71][72] نظریه تالر و پتنت‌های حاصل در آگاهی ماشینی از آزمایش‌هایی الهام گرفته شد که در آن او شبکه‌های عصبی آموزش‌دیده را به‌طور درونی مختل کرد تا الگوهای فعال‌سازی عصبی متوالی را که او به جریان آگاهی تشبیه می‌کرد، هدایت کند [71][73][74].

 

"خود مدل‌سازی"

هاد لیپسون[59] «خود مدل‌سازی[60]» را به عنوان یک جزء ضروری خودآگاهی یا آگاهی در روبات‌ها تعریف می‌کند. "خود مدل‌سازی" شامل یک روبات است که یک مدل داخلی یا شبیهسازی خود را اجرا می‌کند [77][78].

 

در داستان

همچنین ببینید: آگاهی شبیهسازی شده در داستان[61] و هوش‌مصنوعی در داستان[62]

در سال 2001: A Space Odyssey، ابررایانه هوشیار سفینه فضایی، HAL9000 دستور داده شد که هدف واقعی ماموریت را از خدمه پنهان کند. این دستورالعمل با برنامه‌ریزی HAL برای ارائه اطلاعات دقیق در تضاد بود که منجر به ناهماهنگی شناختی[63] شد. هنگامی که متوجه می‌شود که اعضای خدمه قصد دارند آن را پس از یک حادثه خاموش کنند، HAL9000 تلاش می‌کند تا همه آنها را از بین ببرد، از ترس اینکه خاموش شدن ماموریت را به خطر بیندازد [79][80].

در شهر و ستارگان اثر آرتور سی کلارک، واناموند موجودی مصنوعی است که بر اساس درهم تنیدگی کوانتومی ساخته شده است که قرار بود بسیار قدرتمند شود، اما تقریباً هیچ چیز نمیدانست، بنابراین شبیه آگاهی مصنوعی بود.

در Westworld، اندرویدهای شبیه انسان به نام Hosts برای سرگرمی انسان‌ها در یک زمین بازی تعاملی ساخته شده‌اند. انسان‌ها آزادند که ماجراجویی‌های قهرمانانه داشته باشند، بلکه در ارتکاب شکنجه، تجاوز جنسی یا قتل نیز آزادند. و میزبانها معمولاً طوری طراحی می‌شوند که به انسان آسیب نرسانند [81][79].

در داستان کوتاه گرگ اگان[64] Learning to me بودن، جواهری کوچک در دوران نوزادی در سر مردم کاشته می‌شود. این جواهر حاوی یک شبکه عصبی است که می آموزد وفادارانه از مغز تقلید کند. دقیقاً به ورودی‌های حسی مغز دسترسی دارد و دستگاهی به نام «معلم» آن را برای تولید همان خروجی‌ها آموزش می‌دهد. برای جلوگیری از زوال ذهن با افزایش سن و به عنوان گامی به سوی جاودانگی دیجیتال، بزرگسالان تحت عمل جراحی قرار می گیرند تا کنترل بدن به جواهر داده شود و پس از آن مغز برداشته و از بین می‌رود. شخصیت اصلی نگران است که این روش او را بکشد، زیرا او با مغز بیولوژیکی همذات پنداری می‌کند. اما قبل از عمل جراحی، او نقص "معلم" را تحمل می‌کند. وحشت زده، متوجه می‌شود که بدن خود را کنترل نمی‌کند، که او را به این نتیجه می‌رساند که او جواهر است، و با مغز بیولوژیکی همگام نیست [82][83].

 

منابع

[1] Thaler, S. L. (1998). "The emerging intelligence and its critical look at us". Journal of Near-Death Studies. 17 (1): 21–29. doi:10.1023/A:1022990118714. S2CID 49573301.

[2] Gamez 2008.

[3] Reggia 2013.

[4] Smith, David Harris; Schillaci, Guido (2021). "Build a Robot With Artificial Consciousness? How to Begin? A Cross-Disciplinary Dialogue on the Design and Implementation of a Synthetic Model of Consciousness". Frontiers in Psychology. 12: 530560. doi:10.3389/fpsyg.2021.530560. ISSN 1664-1078. PMC 8096926. PMID 33967869.

[5] Elvidge, Jim (2018). Digital Consciousness: A Transformative Vision. John Hunt Publishing Limited. ISBN 978-1-78535-760-2. Archived from the original on 2023-07-30. Retrieved 2023-06-28.

[6] Chrisley, Ron (October 2008). "Philosophical foundations of artificial consciousness". Artificial Intelligence in Medicine. 44 (2): 119–137. doi:10.1016/j.artmed.2008.07.011. PMID 18818062.

[7] "The Terminology of Artificial Sentience". Sentience Institute. Archived from the original on 2024-09-25. Retrieved 2023-08-19.

[8] Kateman, Brian (2023-07-24). "AI Should Be Terrified of Humans". TIME. Archived from the original on 2024-09-25. Retrieved 2024-09-05.

[9] Graziano 2013.

[10] Block, Ned (2010). "On a confusion about a function of consciousness". Behavioral and Brain Sciences. 18 (2): 227–247. doi:10.1017/S0140525X00038188. ISSN 1469-1825. S2CID 146168066. Archived from the original on 2024-09-25. Retrieved 2023-06-22.

[11] Block, Ned (1978). "Troubles for Functionalism". Minnesota Studies in the Philosophy of Science: 261–325.

[12] Bickle, John (2003). Philosophy and Neuroscience. Dordrecht: Springer Netherlands. doi:10.1007/978-94-010-0237-0. ISBN 978-1-4020-1302-7. Archived from the original on 2024-09-25. Retrieved 2023-06-24.

[13] Schlagel, R. H. (1999). "Why not artificial consciousness or thought?". Minds and Machines. 9 (1): 3–28. doi:10.1023/a:1008374714117. S2CID 28845966.

[14] Searle, J. R. (1980). "Minds, brains, and programs" (PDF). Behavioral and Brain Sciences. 3 (3): 417–457. doi:10.1017/s0140525x00005756. S2CID 55303721. Archived (PDF) from the original on 2019-03-17. Retrieved 2019-01-28.

[15] Buttazzo, G. (2001). "Artificial consciousness: Utopia or real possibility?". Computer. 34 (7): 24–30. doi:10.1109/2.933500. Archived from the original on 2024-09-25. Retrieved 2024-07-31.

[16] Putnam, Hilary (1967). The nature of mental states in Capitan and Merrill (eds.) Art, Mind and Religion. University of Pittsburgh Press.

[17] Chalmers, David (1995). "Absent Qualia, Fading Qualia, Dancing Qualia". Conscious Experience.

[18] David J. Chalmers (2011). "A Computational Foundation for the Study of Cognition" (PDF). Journal of Cognitive Science. 12 (4): 325–359. doi:10.17791/JCS.2011.12.4.325. S2CID 248401010. Archived (PDF) from the original on 2023-11-23. Retrieved 2023-06-24.

[19] "An Introduction to the Problems of AI Consciousness". The Gradient. 2023-09-30. Retrieved 2024-10-05.

[20] "'I am, in fact, a person': can artificial intelligence ever be sentient?". the Guardian. 14 August 2022. Archived from the original on 25 September 2024. Retrieved 5 January 2023.

[21] Leith, Sam (7 July 2022). "Nick Bostrom: How can we be certain a machine isn't conscious?". The Spectator. Archived from the original on 5 January 2023. Retrieved 5 January 2023.

[22] Šekrst, Kristina (2024), "Chinese Chat Room: AI hallucinations, epistemology and cognition", Studies in Logic, Grammar and Rhetoric, 69 (1): 365–381, doi:10.2478/slgr-2024-0029

[23] Šekrst, Kristina (2025), "Do Large Language Models Hallucinate Electric Fata Morganas?", Journal of Consciousness Studies

[24] Chalmers, David J. (August 9, 2023). "Could a Large Language Model Be Conscious?". Boston Review.

[25] Véliz, Carissa (2016-04-14). "The Challenge of Determining Whether an A.I. Is Sentient". Slate. ISSN 1091-2339. Retrieved 2024-10-05.

[26] Birch, Jonathan (July 2024). "Large Language Models and the Gaming Problem". The Edge of Sentience. Oxford University Press. pp. 313–322. doi:10.1093/9780191966729.003.0017. ISBN 978-0-19-196672-9.

[27] Agüera y Arcas, Blaise; Norvig, Peter (October 10, 2023). "Artificial General Intelligence Is Already Here". Noéma.

[28] Kirk-Giannini, Cameron Domenico; Goldstein, Simon (2023-10-16). "AI is closer than ever to passing the Turing test for 'intelligence'. What happens when it does?". The Conversation. Archived from the original on 2024-09-25. Retrieved 2024-08-18.

[29] Victor Argonov (2014). "Experimental Methods for Unraveling the Mind-body Problem: The Phenomenal Judgment Approach". Journal of Mind and Behavior. 35: 51–70. Archived from the original on 2016-10-20. Retrieved 2016-12-06.

[30] "Should Robots With Artificial Intelligence Have Moral or Legal Rights?". The Wall Street Journal. April 10, 2023.

[31] Bostrom, Nick (2024). Deep utopia: life and meaning in a solved world. Washington, DC: Ideapress Publishing. p. 82. ISBN 978-1-64687-164-3.

[32] Sebo, Jeff; Long, Robert (11 December 2023). "Moral Consideration for AI Systems by 2030" (PDF). AI and Ethics. 5: 591–606. doi:10.1007/s43681-023-00379-1.

[33] Metzinger, Thomas (2021). "Artificial Suffering: An Argument for a Global Moratorium on Synthetic Phenomenology". Journal of Artificial Intelligence and Consciousness. 08: 43–66. doi:10.1142/S270507852150003X. S2CID 233176465.

[34] Tkachenko, Yegor (2024). "Position: Enforced Amnesia as a Way to Mitigate the Potential Risk of Silent Suffering in the Conscious AI". Proceedings of the 41st International Conference on Machine Learning. PMLR. Archived from the original on 2024-06-10. Retrieved 2024-06-11.

[35] Baars 1995.

[36] Aleksander, Igor (1995a). "Artificial neuroconsciousness an update". In Mira, José; Sandoval, Francisco (eds.). From Natural to Artificial Neural Computation. Lecture Notes in Computer Science. Vol. 930. Berlin, Heidelberg: Springer. pp. 566–583. doi:10.1007/3-540-59497-3_224. ISBN 978-3-540-49288-7. Archived from the original on 2024-09-25. Retrieved 2023-06-22.

[37] Seth, Anil. "Consciousness". New Scientist. Archived from the original on 2024-09-14. Retrieved 2024-09-05.

[38] Nosta, John (December 18, 2023). "Should Artificial Intelligence Have Rights?". Psychology Today. Archived from the original on 2024-09-25. Retrieved 2024-09-05.

[39] Joëlle Proust in Neural Correlates of Consciousness, Thomas Metzinger, 2000, MIT, pages 307–324

[40] Christof Koch, The Quest for Consciousness, 2004, page 2 footnote 2

[41] Tulving, E. 1985. Memory and consciousness. Canadian Psychology 26:1–12

[42] Franklin, Stan, et al. "The role of consciousness in memory." Brains, Minds and Media 1.1 (2005): 38.

[43] Franklin, Stan. "Perceptual memory and learning: Recognizing, categorizing, and relating." Proc. Developmental Robotics AAAI Spring Symp. 2005.

[44] Shastri, L. 2002. Episodic memory and cortico-hippocampal interactions. Trends in Cognitive Sciences

[45] Kanerva, Pentti. Sparse distributed memory. MIT press, 1988.

[46] "Implicit Learning and Consciousness: An Empirical, Philosophical and Computational Consensus in the Making". Routledge & CRC Press. Archived from the original on 2023-06-22. Retrieved 2023-06-22.

[47] Aleksander 1995.

[48] "Functionalism". Stanford Encyclopedia of Philosophy. Archived from the original on 2021-04-18. Retrieved 2024-09-08.

[49] "Survey Results | Consciousness: identity theory, panpsychism, eliminativism, dualism, or functionalism?". PhilPapers. 2020.

[50] Butlin, Patrick; Long, Robert; Elmoznino, Eric; Bengio, Yoshua; Birch, Jonathan; Constant, Axel; Deane, George; Fleming, Stephen M.; Frith, Chris; Ji, Xu; Kanai, Ryota; Klein, Colin; Lindsay, Grace; Michel, Matthias; Mudrik, Liad; Peters, Megan A. K.; Schwitzgebel, Eric; Simon, Jonathan; VanRullen, Rufin (2023). "Consciousness in Artificial Intelligence: Insights from the Science of Consciousness". arXiv:2308.08708 [cs.AI].

[51] Baars, Bernard J. (1988). A Cognitive Theory of Consciousness. Cambridge University Press. p. 345. ISBN 0521427436. Archived from the original on 2024-09-25. Retrieved 2024-09-05.

[52] Travers, Mark (October 11, 2023). "Are We Ditching the Most Popular Theory of Consciousness?". Psychology Today. Archived from the original on 2024-09-25. Retrieved 2024-09-05.

[53] "Higher-Order Theories of Consciousness". Stanford Encyclopedia of Philosophy. 15 Aug 2011. Archived from the original on 14 May 2008. Retrieved 31 August 2014.

[54] Graziano, Michael (1 January 2011). "Human consciousness and its relationship to social neuroscience: A novel hypothesis". Cognitive Neuroscience. 2 (2): 98–113. doi:10.1080/17588928.2011.565121. PMC 3223025. PMID 22121395.

[55] Franklin, Stan (January 2003). "IDA: A conscious artifact?". Journal of Consciousness Studies. Archived from the original on 2020-07-03. Retrieved 2024-08-25.

[56] J. Baars, Bernard; Franklin, Stan (2009). "Consciousness is computational: The Lida model of global workspace theory". International Journal of Machine Consciousness. 01: 23–32. doi:10.1142/S1793843009000050.

[57] (Sun 2002)

[58] Haikonen, Pentti O. (2003). The cognitive approach to conscious machines. Exeter: Imprint Academic. ISBN 978-0-907845-42-3.

[59] "Pentti Haikonen's architecture for conscious machines – Raúl Arrabales Moreno". 2019-09-08. Archived from the original on 2024-09-25. Retrieved 2023-06-24.

[60] Freeman, Walter J. (2000). How brains make up their minds. Maps of the mind. New York; Chichester, West Sussex: Columbia University Press. ISBN 978-0-231-12008-1.

[61] Cotterill, Rodney M. J. (2003). "CyberChild - A simulation test-bed for consciousness studies". Journal of Consciousness Studies. 10 (4–5): 31–45. ISSN 1355-8250. Archived from the original on 2024-09-25. Retrieved 2023-06-22.

[62] Haikonen, Pentti O.; Haikonen, Pentti Olavi Antero (2012). Consciousness and robot sentience. Series on machine consciousness. Singapore: World Scientific. ISBN 978-981-4407-15-1.

[63] Haikonen, Pentti O. (2019). Consciousness and robot sentience. Series on machine consciousness (2nd ed.). Singapore; Hackensack, NJ; London: World Scientific. ISBN 978-981-12-0504-0.

[64] Shanahan, Murray (2006). "A cognitive architecture that combines internal simulation with a global workspace". Consciousness and Cognition. 15 (2): 433–449. doi:10.1016/j.concog.2005.11.005. ISSN 1053-8100. PMID 16384715. S2CID 5437155.

[65] Haikonen, Pentti O.; Haikonen, Pentti Olavi Antero (2012). "chapter 20". Consciousness and robot sentience. Series on machine consciousness. Singapore: World Scientific. ISBN 978-981-4407-15-1.

[67] Thaler, S.L., "Device for the autonomous generation of useful information"

[67] Marupaka, N.; Lyer, L.; Minai, A. (2012). "Connectivity and thought: The influence of semantic network structure in a neurodynamical model of thinking" (PDF). Neural Networks. 32: 147–158. doi:10.1016/j.neunet.2012.02.004. PMID 22397950. Archived from the original (PDF) on 2016-12-19. Retrieved 2015-05-22.

[68] Roque, R. and Barreira, A. (2011). "O Paradigma da "Máquina de Criatividade" e a Geração de Novidades em um Espaço Conceitual," 3º Seminário Interno de Cognição Artificial – SICA 2011 – FEEC – UNICAMP.

[69] Minati, Gianfranco; Vitiello, Giuseppe (2006). "Mistake Making Machines". Systemics of Emergence: Research and Development. pp. 67–78. doi:10.1007/0-387-28898-8_4. ISBN 978-0-387-28899-4.

[70] Thaler, S. L. (2013) The Creativity Machine Paradigm, Encyclopedia of Creativity, Invention, Innovation, and Entrepreneurship Archived 2016-04-29 at the Wayback Machine, (ed.) E.G. Carayannis, Springer Science+Business Media

[71] Thaler, S. L. (2011). "The Creativity Machine: Withstanding the Argument from Consciousness," APA Newsletter on Philosophy and Computers

[72] Thaler, S. L. (2014). "Synaptic Perturbation and Consciousness". Int. J. Mach. Conscious. 6 (2): 75–107. doi:10.1142/S1793843014400137.

[73] Thaler, S. L. (1995). ""Virtual Input Phenomena" Within the Death of a Simple Pattern Associator". Neural Networks. 8 (1): 55–65. doi:10.1016/0893-6080(94)00065-t.

[74] Thaler, S. L. (1995). Death of a gedanken creature, Journal of Near-Death Studies, 13(3), Spring 1995

[75] Thaler, S. L. (1996). Is Neuronal Chaos the Source of Stream of Consciousness? In Proceedings of the World Congress on Neural Networks, (WCNN’96), Lawrence Erlbaum, Mawah, NJ.

[76] Mayer, H. A. (2004). A modular neurocontroller for creative mobile autonomous robots learning by temporal difference Archived 2015-07-08 at the Wayback Machine, Systems, Man and Cybernetics, 2004 IEEE International Conference(Volume:6 )

[77] Pavlus, John (11 July 2019). "Curious About Consciousness? Ask the Self-Aware Machines". Quanta Magazine. Archived from the original on 2021-01-17. Retrieved 2021-01-06.

[78] Bongard, Josh, Victor Zykov, and Hod Lipson. "Resilient machines through continuous self-modeling." Science 314.5802 (2006): 1118–1121.

[79] Wodinsky, Shoshana (2022-06-18). "The 11 Best (and Worst) Sentient Robots From Sci-Fi". Gizmodo. Archived from the original on 2023-11-13. Retrieved 2024-08-17.

[80] Sokolowski, Rachael (2024-05-01). "Star Gazing". Scotsman Guide. Archived from the original on 2024-08-17. Retrieved 2024-08-17.

[81[ Bloom, Paul; Harris, Sam (2018-04-23). "Opinion | It's Westworld. What's Wrong With Cruelty to Robots?". The New York Times. ISSN 0362-4331. Archived from the original on 2024-08-17. Retrieved 2024-08-17.

[82] Egan, Greg (July 1990). Learning to Be Me. TTA Press.

[83] Shah, Salik (2020-04-08). "Why Greg Egan Is Science Fiction's Next Superstar". Reactor. Archived from the original on 2024-05-16. Retrieved 2024-08-17.



[1] Sentience

[2] Qualia

[3] Neural Correlates of Consciousness

[4] Giorgio Buttazzo

[5] Artificial Consciousness: Utopia or Real Possibility

[6] unreprogrammation

[7] reprogrammed', from rethinking

[8] thought experiments

[9] functionally isomorphic

[10] fine-grained functional organization

[11] fading qualia

[12] reductio ad absurdum

[13] Blake Lemoine

[14] Nick Bostrom

[15] Kristina Šekrst

[16] hallucination

[17] reliabilism

[18] general intelligence

[19] hard problem of consciousness

[20] Victor Argonov

[21] non-Turing test for machine sentience

[22] when the consciousness is uncertain

[23] precautionary principle

[24] Thomas Metzinger

[25] Enforced amnesia

[26] brain organoids

[27] Bernard Baars

[28] definition and context setting, adaptation and learning, editing, flagging and debugging, recruiting and control, prioritizing and access-control, decision-making or executive function, analogy-forming function, metacognitive and self-monitoring function, and autoprogramming and self-maintenance function.

[29] Igor Aleksander

[30] the brain is a state machine, inner neuron partitioning, conscious and unconscious states, perceptual learning and memory, prediction, the awareness of self, representation of meaning, learning utterances, learning language, will, instinct, and emotion

[31] Awareness

[32] agency awareness, goal awareness, and sensorimotor awareness

[33] episodic memory

[34] procedural memory

[35] Axel Cleeremans

[36] Luis Jiménez

[37] philogenetically

[38] complex, unpredictable environments

[39] Anticipation

[40] emergentist multiple drafts principle

[41] Draft

[42] Functionalist theories

[43] Higher-order theories of consciousness

[44] higher-order thought

[45] higher-order perception

[46] Michael Graziano

[47] Sabine Kastler

[48] Human consciousness and its relationship to social neuroscience: A novel hypothesis

[49] Stan Franklin

[50] Bernard Baars's theory

[51] codelets

[52] explicit

[53] implicit

[54] Ben Goertzel

[55] Pentti Haikonen

[56] classical rule-based computing

[57] Murray Shanahan

[58] Device for the Autonomous Generation of Useful Information

[59] Hod Lipson

[60] self-modeling

[61] Simulated consciousness in fiction

[62] Artificial intelligence in fiction

[63] cognitive dissonance

[64] Greg Egan

نظرات 1 + ارسال نظر
صادقپور جمعه 29 فروردین 1404 ساعت 15:51

عالی بود

سلام و درود.

باعث افتخار است که مطلب ارائه شده مورد توجه شما واقع گردید.

ایمیل شما بعد از ثبت نمایش داده نخواهد شد