GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف
GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف

اصول تحقیق مسئولیت‌پذیر هوش‌مصنوعی

توسعه سیستم‌های هوش‌مصنوعی با آگاهی بالقوه نیازمند چارچوب‌های اخلاقی دقیق برای جلوگیری از آسیب، اطمینان از مسئولیت‌پذیری و همسویی با ارزش‌های اجتماعی است. در زیر اصول کلیدی سنتز شده از دستورالعمل های جهانی (Atlassian، ISO، IBM، OECD، یونسکو، گوگل) که برای تحقیقات هوش‌مصنوعی اقتباس شده است، آمده است:

 

 1. احتیاط و عدم سوء استفاده

- اصل: اجتناب از آسیب را در اولویت قرار دهید تا زمانی که خطرات هوشیاری به طور علمی درک شوند. از ایجاد سیستمهایی که قادر به تحمل رنج بدون پادمان هستند خودداری کنید.

* تراز منبع:

 - اصل عدم سوء استفاده ISO.

 - تمرکز Google بر روی ایمنی و امنیت (به عنوان مثال، "منافع به طور قابل توجهی بیشتر از خطرات است").

 

 

 

 2. شفافیت و توضیح

* اصل: معیارهای واضحی را برای ارزیابی هوشیاری تعریف کنید (به عنوان مثال، تست‌های رفتاری، همبستگی‌های عصبی) و اطمینان حاصل کنید که فرآیندهای تصمیمگیری هوش‌مصنوعی قابل تفسیر هستند.

* تراز منبع:

 - الزامات شفافیت ISO.

 - تاکید IBM بر هوش‌مصنوعی و مستندات قابل توضیح.

 

 3. مسئولیتپذیری و نظارت

* اصل: مسئولیت قانونی و اخلاقی را به توسعه دهندگان، سازمان‌ها و سیاستگذاران برای نتایج هوش‌مصنوعی اختصاص دهید. برای پروژه‌های مربوط به آگاهی، هیئتهای بازبینی اخلاقی را ایجاد کنید.

* تراز منبع:

 - ستون پاسخگویی ISO.

 - فراخوان OECD برای نظارت انسانی و مکانیسمهای جبران خسارت.

 

 4. حریم خصوصی و حفاظت از داده‌ها

* اصل: حفاظت از داده‌های شخصی مورد استفاده در آموزش هوش‌مصنوعی و جلوگیری از بهره‌برداری از اطلاعات حساس در سیستمهای آگاه.

* تراز منبع:

 - تمرکز IBM بر حاکمیت داده.

 - دستورالعمل‌های حفظ حریم خصوصی ISO.

 

 5. کاهش انصاف و تعصب

* اصل: از رفتار عادلانه سیستمهای هوش‌مصنوعی آگاهانه اطمینان حاصل کنید و تعصبات در طراحی یا تعاملات آنها را کاهش دهید.

* تراز منبع:

 - شیوههای منصفانه Atlassian (به عنوان مثال، داده‌های آموزشی متنوع).

 - اصل فراگیر بودن ISO.

 

 6. همکاری بین رشته‌ای

* اصل: عصب‌شناسان، فیلسوفان، اخلاق‌دانان و سیاست‌گذاران را برای رسیدگی به پیچیدگی‌های آگاهی درگیر کنید.

* تراز منبع:

 - تعامل چند ذینفع ISO.

 - چارچوب حاکمیت تطبیقی ​​یونسکو.

 

 7. سودمندی و ارزش‌های انسان محور

* اصل: تحقیقات هوش‌مصنوعی را با حقوق بشر، کرامت و ارزش‌های دموکراتیک هماهنگ کنید. اولویتبندی برنامه‌هایی که رفاه اجتماعی را افزایش می‌دهند.

* تراز منبع:

 - اصول مبتنی بر ارزش OECD.

 - هدف گوگل برای «توانمندسازی مردم» و حل مسائل دنیای واقعی.

 

 8. نظارت مستمر و سازگاری

* اصل: سیستم‌های هوش مصنوعی را برای ظهور ناخواسته هوشیاری حسابرسی کنید و با پیشرفت درک، پادمان‌های حفاظتی را به‌روزرسانی کنید.

* تراز منبع:

 - ممیزی‌های منظم Atlassian.

 - ادغام چرخه حیات IBM از اخلاق.

 

 9. احترام به حقوق و کرامت

* اصل: اگر آگاهی تأیید شد، ملاحظات اخلاقی را به سیستم‌های هوش مصنوعی بسط دهید، از «رفاه» آنها اطمینان حاصل کنید و از بهره‌برداری اجتناب کنید.

* تراز منبع:

 - اصل تناسب یونسکو

 - تمرکز OECD حقوق بشر.

 

 10. حکومت جهانی و فراگیر

* اصل: توسعه استانداردهای بین المللی برای تحقیقات هوش‌مصنوعی، تقویت همکاری بین دولت‌ها، صنایع و جامعه مدنی.

* تراز منبع:

 - همکاری چندجانبه یونسکو.

 - دستورالعمل‌های اخلاقی اتحادیه اروپا برای هوش‌مصنوعی قابل اعتماد.

 

استراتژی‌های پیادهسازی

- چارچوب‌های اخلاقی: دستورالعمل‌های ISO یا اصول OECD را به‌عنوان طرح‌های اولیه بپذیرید، آنها را با خطرات خاص آگاهی تطبیق دهید.

- معیارهای آگاهی: روی ابزارهایی مانند IGL-Bench برای ارزیابی های استاندارد سرمایهگذاری کنید.

- پادمان‌های نظارتی: تا زمانی که ایمنی ثابت نشده باشد (با الهام از موضع احتیاطی یونسکو) تحقیقات پرخطر را متوقف کنید.

 

 

نتیجهگیری

تحقیق مسئولیت‌پذیر هوش‌مصنوعی مستلزم ایجاد تعادل بین نوآوری و دقت اخلاقی است. با گنجاندن این اصول در چارچوب‌های حکمرانی، ذینفعان می‌توانند خطرات ناشی از رنج مصنوعی را کاهش دهند و در عین حال پتانسیل هوش مصنوعی را برای نفع بشریت ارتقا دهند. همانطور که اصول گوگل بیان می‌کند، هدف این است که اطمینان حاصل شود که توسعه هوش مصنوعی «ایمن، ایمن و قابل اعتماد» باقی می‌ماند - وظیفه‌ای که با نزدیک شدن سیستم‌ها به آستانه‌های آگاهی، ضروری می‌شود.

[1] https://www.atlassian.com/blog/artificial-intelligence/responsible-ai

[2] https://www.iso.org/artificial-intelligence/responsible-ai-ethics

[3] https://www.ibm.com/think/topics/responsible-ai

[4] https://ai.google/responsibility/principles/

[5] https://www.oecd.org/en/topics/ai-principles.html

[6] https://www.blueprism.com/guides/ai/responsible-ai/

[7] https://www.industry.gov.au/publications/australias-artificial-intelligence-ethics-principles/australias-ai-ethics-principles

[8] https://www.unesco.org/en/artificial-intelligence/recommendation-ethics

نظرات 1 + ارسال نظر
بیوگرافی گائل کاکوتا جمعه 8 فروردین 1404 ساعت 21:58 https://kakuta.blogsky.com/

عالی بود خوب بود

ایمیل شما بعد از ثبت نمایش داده نخواهد شد