مفهوم اراده آزاد برای موجودات مصنوعی توجه را به خود جلب کرده است زیرا سیستمهای هوشمصنوعی به طور فزایندهای وظایف مستقل را انجام میدهند. این مدل، با الهام از چارچوبهای فلسفی و محاسباتی، شرایطی را بررسی میکند که تحت آن سیستمهای هوشمصنوعی میتوانند دارای اراده آزاد در یک مفهوم کاربردی و مفید تشخیصی در نظر گرفته شوند.
1. چارچوبی برای اراده آزاد هوشمصنوعی
Christian List چک لیستی از سه شرط را پیشنهاد میکند که یک سیستم هوشمصنوعی باید واجد شرایط داشتن اراده آزاد باشد:
الف) عامل عمدی
- سیستم باید به عنوان یک عامل عمدی که قادر به تشکیل اهداف و ترجیحات باشد نگریسته شود.
- با الهام از موضع عمدی دنیل دنت، عاملیت عمدی به عنوان توانایی توضیح و پیشبینی رفتار یک سیستم با تلقی آن به عنوان هدفمند تعریف میشود.
ب) امکانات جایگزین
- سیستم باید ظرفیت انتخاب بین چندین گزینه را بر اساس فرآیندهای داخلی خود داشته باشد تا تحمیل خارجی.
- برای مثال، الگوریتمهای یادگیری تقویتی به سیستمهای هوشمصنوعی اجازه میدهند تا استراتژیهای مختلف را بررسی کنند و رفتار خود را به صورت پویا تطبیق دهند.
ج) کنترل عِلی
- سیستم باید بر اعمال و نتایج خود کنترل داشته باشد و اطمینان حاصل کند که تصمیمات آن کاملاً از پیش تعیین شده یا تصادفی نیست، بلکه ناشی از فرآیندهای استدلال درونی آن است.
شکل 1: مدل دو مرحلهای اراده آزاد
2. زمینه فلسفی
جبر گرایی در مقابل عدم تعینگرایی
- سیستمهای هوشمصنوعی قطعی کاملاً بر اساس قوانین برنامهریزی شده عمل میکنند و تردیدهایی در مورد استقلال واقعی ایجاد میکنند.
- عناصر نامعین، مانند تصمیمگیری احتمالی یا رفتارهای نوظهور، ممکن است غیرقابل پیش بینی را معرفی کنند، اما ذاتاً معادل اراده آزاد نیستند.
آزادی محدود
- سیستمهای هوشمصنوعی میتوانند «آزادی محدود» را نشان دهند، جایی که انتخابها در محدودیتهای ساختاریافته ظاهر میشوند (مانند محیطهای یادگیری). در حالی که این امر از جهاتی شبیه تصمیمگیری انسانی است، اما فاقد استدلال درونی و ملاحظات اخلاقی است.
شکل 2: مدل سه مرحلهای اراده آزاد
3. دیدگاه محاسباتی
مکانیسمهای حمایت از اراده آزاد در هوشمصنوعی
1. یادگیری تقویتی: عوامل هوشمصنوعی را قادر میسازد تا از تجربه بیاموزند و رفتار خود را به صورت پویا تطبیق دهند و تصور انتخابی را ایجاد کنند.
2. مدلهای تصمیمگیری سلسله مراتبی: به سیستمهای هوشمصنوعی اجازه میدهد تا چندین گزینه را ارزیابی کرده و اقدامات را بر اساس اهداف اولویتبندی شده انتخاب کنند.
3. خود شبیهسازی: مدلهای پیشرفته میتوانند سناریوهای جایگزین را در داخل شبیهسازی کنند، با تقلید از مشورت انسان.
محدودیتها
- هوشمصنوعی فعلی فاقد خودآگاهی و درون نگری است که اجزای حیاتی اراده آزاد انسان هستند. تصمیمها بهجای انگیزهی بازتاب آگاهانه، بهصورت الگوریتمی هدایت میشوند.
شکل 3: الگوی زمانی فرآیند تصمیمگیری مرتبط با ارادهآزاد
4. مفاهیم اخلاقی
مسئولیت اخلاقی: اگر یک سیستم هوشمصنوعی معیارهای اراده آزاد را داشته باشد، آیا باید در قبال اقدامات خود پاسخگو باشد؟ یا مسئولیت بر عهده طراحان آن باقی میماند؟
خودمختاری در مقابل کنترل: اعطای استقلال سیستم های هوش مصنوعی نگرانی هایی را در مورد همسویی آنها با ارزش های انسانی و هنجارهای اجتماعی ایجاد می کند.
5. چالش در تعریف اراده آزاد برای هوشمصنوعی
- 1. آنتروپومورفیسم: نسبت دادن بیش از حد ویژگیهای انسان مانند به ماشینها، خطر ارائه نادرست قابلیتهای آنها را به همراه دارد.
- 2. اعتبار سنجی: تعیین اینکه آیا یک سیستم هوشمصنوعی واقعاً سه شرط را برآورده میکند یا خیر، نیازمند چارچوبهای ارزیابی قوی است.
شکل 4: مدل دو مرحلهای در مقابل سه مرحلهای
6. مسیرهای آینده
- 1. معماری ترکیبی: ترکیب عامل عمدی با تصمیمگیری احتمالی و شبیهسازی خود میتواند استقلال هوشمصنوعی را در عین حفظ پادمانهای اخلاقی افزایش دهد.
- 2. حکمرانی اخلاقی: ایجاد رهنمودهایی برای طراحی سیستمهای خودمختار که بین آزادی و پاسخگویی تعادل برقرار میکند ضروری است.
نتیجهگیری
در حالی که سیستمهای هوشمصنوعی فعلی فاقد اراده آزاد واقعی هستند، میتوانند رفتارهایی از خود نشان دهند که به قصد، احتمالات جایگزین و کنترل علی در شرایط ساختاریافته نزدیک میشود. مدل ارائه شده توسط Christian List یک چارچوب عمل گرایانه برای ارزیابی این سیستمها بدون توسل به توضیحات متافیزیکی ارائه میدهد. با پیشرفت فناوری هوشمصنوعی، همکاری بین رشتهای بین فیلسوفان، دانشمندان علوم کامپیوتر و اخلاقدانان در پیمایش پیامدهای استقلال مصنوعی بسیار مهم خواهد بود.
مراجع
- 1. *آیا سیستم های هوش مصنوعی می توانند اراده آزاد داشته باشند؟*[1][2].
- 2. سانچیس (2018)، *الگویی از اراده آزاد برای موجودات مصنوعی*[4].
- 3. جان مک کارتی (استنفورد)، *اراده آزاد - حتی برای روبات ها*[7].
[1] https://philarchive.org/archive/LISCAS-3
[2] https://philsci-archive.pitt.edu/24353/1/List-FreeWillAI%20Nov-Dec%202024.pdf
[3] https://www.linkedin.com/pulse/ai-question-free-ars%C3%A9nio-ant%C3%B3nio-monjane-yo5kf
[4] https://arxiv.org/pdf/1802.09317.pdf
[6] https://www.reddit.com/r/singularity/comments/13rl38k/can_ai_eventually_disprove_free_will/
[7] http://jmc.stanford.edu/articles/freewill.html