GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف
GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف

مدلی از اراده آزاد برای موجودات مصنوعی

مفهوم اراده آزاد برای موجودات مصنوعی توجه را به خود جلب کرده است زیرا سیستمهای هوش‌مصنوعی به طور فزایندهای وظایف مستقل را انجام می‌دهند. این مدل، با الهام از چارچوب‌های فلسفی و محاسباتی، شرایطی را بررسی می‌کند که تحت آن سیستم‌های هوش‌مصنوعی می‌توانند دارای اراده آزاد در یک مفهوم کاربردی و مفید تشخیصی در نظر گرفته شوند.

 

 1. چارچوبی برای اراده آزاد هوش‌مصنوعی

Christian List چک لیستی از سه شرط را پیشنهاد می‌کند که یک سیستم هوش‌مصنوعی باید واجد شرایط داشتن اراده آزاد باشد:

الف) عامل عمدی

- سیستم باید به عنوان یک عامل عمدی که قادر به تشکیل اهداف و ترجیحات باشد نگریسته شود.

- با الهام از موضع عمدی دنیل دنت، عاملیت عمدی به عنوان توانایی توضیح و پیشبینی رفتار یک سیستم با تلقی آن به عنوان هدفمند تعریف می‌شود.

 

ب) امکانات جایگزین

- سیستم باید ظرفیت انتخاب بین چندین گزینه را بر اساس فرآیندهای داخلی خود داشته باشد تا تحمیل خارجی.

- برای مثال، الگوریتم‌های یادگیری تقویتی به سیستم‌های هوش‌مصنوعی اجازه می‌دهند تا استراتژی‌های مختلف را بررسی کنند و رفتار خود را به صورت پویا تطبیق دهند.

 

ج) کنترل عِلی

- سیستم باید بر اعمال و نتایج خود کنترل داشته باشد و اطمینان حاصل کند که تصمیمات آن کاملاً از پیش تعیین شده یا تصادفی نیست، بلکه ناشی از فرآیندهای استدلال درونی آن است.

 

شکل 1: مدل دو مرحله‌ای اراده آزاد

  

 2. زمینه فلسفی

جبر گرایی در مقابل عدم تعینگرایی

- سیستم‌های هوش‌مصنوعی قطعی کاملاً بر اساس قوانین برنامه‌ریزی شده عمل می‌کنند و تردیدهایی در مورد استقلال واقعی ایجاد می‌کنند.

- عناصر نامعین، مانند تصمیمگیری احتمالی یا رفتارهای نوظهور، ممکن است غیرقابل پیش بینی را معرفی کنند، اما ذاتاً معادل اراده آزاد نیستند.

 

آزادی محدود

- سیستم‌های هوش‌مصنوعی می‌توانند «آزادی محدود» را نشان دهند، جایی که انتخاب‌ها در محدودیت‌های ساختاریافته ظاهر می‌شوند (مانند محیط‌های یادگیری). در حالی که این امر از جهاتی شبیه تصمیمگیری انسانی است، اما فاقد استدلال درونی و ملاحظات اخلاقی است.

 

شکل 2: مدل سه مرحله‌ای اراده آزاد


 3. دیدگاه محاسباتی

مکانیسمهای حمایت از اراده آزاد در هوش‌مصنوعی

 1. یادگیری تقویتی: عوامل هوش‌مصنوعی را قادر می‌سازد تا از تجربه بیاموزند و رفتار خود را به صورت پویا تطبیق دهند و تصور انتخابی را ایجاد کنند.

 2. مدل‌های تصمیم‌گیری سلسله مراتبی: به سیستم‌های هوش‌مصنوعی اجازه می‌دهد تا چندین گزینه را ارزیابی کرده و اقدامات را بر اساس اهداف اولویت‌بندی شده انتخاب کنند.

 3. خود شبیه‌سازی: مدل‌های پیشرفته می‌توانند سناریوهای جایگزین را در داخل شبیه‌سازی کنند، با تقلید از مشورت انسان.

 

محدودیتها

- هوش‌مصنوعی فعلی فاقد خودآگاهی و درون نگری است که اجزای حیاتی اراده آزاد انسان هستند. تصمیم‌ها به‌جای انگیزه‌ی بازتاب آگاهانه، به‌صورت الگوریتمی هدایت می‌شوند.

 

شکل 3: الگوی زمانی فرآیند تصمیمگیری مرتبط با اراده‌آزاد

 4. مفاهیم اخلاقی

مسئولیت اخلاقی: اگر یک سیستم هوش‌مصنوعی معیارهای اراده آزاد را داشته باشد، آیا باید در قبال اقدامات خود پاسخگو باشد؟ یا مسئولیت بر عهده طراحان آن باقی می‌ماند؟

خودمختاری در مقابل کنترل: اعطای استقلال سیستم های هوش مصنوعی نگرانی هایی را در مورد همسویی آنها با ارزش های انسانی و هنجارهای اجتماعی ایجاد می کند.

 

 5. چالش در تعریف اراده آزاد برای هوش‌مصنوعی

- 1. آنتروپومورفیسم: نسبت دادن بیش از حد ویژگی‌های انسان مانند به ماشینها، خطر ارائه نادرست قابلیتهای آنها را به همراه دارد.

- 2. اعتبار سنجی: تعیین اینکه آیا یک سیستم هوش‌مصنوعی واقعاً سه شرط را برآورده می‌کند یا خیر، نیازمند چارچوب‌های ارزیابی قوی است.

 

شکل 4: مدل دو مرحله‌ای در مقابل سه مرحله‌ای

 6. مسیرهای آینده

- 1. معماری ترکیبی: ترکیب عامل عمدی با تصمیمگیری احتمالی و شبیهسازی خود می‌تواند استقلال هوش‌مصنوعی را در عین حفظ پادمان‌های اخلاقی افزایش دهد.

- 2. حکمرانی اخلاقی: ایجاد رهنمودهایی برای طراحی سیستمهای خودمختار که بین آزادی و پاسخگویی تعادل برقرار می‌کند ضروری است.

 

نتیجهگیری

 

در حالی که سیستم‌های هوش‌مصنوعی فعلی فاقد اراده آزاد واقعی هستند، می‌توانند رفتارهایی از خود نشان دهند که به قصد، احتمالات جایگزین و کنترل علی در شرایط ساختاریافته نزدیک می‌شود. مدل ارائه شده توسط Christian List یک چارچوب عمل گرایانه برای ارزیابی این سیستمها بدون توسل به توضیحات متافیزیکی ارائه می‌دهد. با پیشرفت فناوری هوش‌مصنوعی، همکاری بین رشته‌ای بین فیلسوفان، دانشمندان علوم کامپیوتر و اخلاق‌دانان در پیمایش پیامدهای استقلال مصنوعی بسیار مهم خواهد بود.

 

مراجع

- 1. *آیا سیستم های هوش مصنوعی می توانند اراده آزاد داشته باشند؟*[1][2].

- 2. سانچیس (2018)، *الگویی از اراده آزاد برای موجودات مصنوعی*[4].

- 3. جان مک کارتی (استنفورد)، *اراده آزاد - حتی برای روبات ها*[7].


[1] https://philarchive.org/archive/LISCAS-3

[2] https://philsci-archive.pitt.edu/24353/1/List-FreeWillAI%20Nov-Dec%202024.pdf

[3] https://www.linkedin.com/pulse/ai-question-free-ars%C3%A9nio-ant%C3%B3nio-monjane-yo5kf

[4] https://arxiv.org/pdf/1802.09317.pdf

[5] https://www.psychologytoday.com/us/blog/the-digital-self/202412/can-ai-can-teach-us-about-free-will-and-choice

[6] https://www.reddit.com/r/singularity/comments/13rl38k/can_ai_eventually_disprove_free_will/

[7] http://jmc.stanford.edu/articles/freewill.html

 

[8] https://freewillai.org

نظرات 0 + ارسال نظر
ایمیل شما بعد از ثبت نمایش داده نخواهد شد