محققان دریافتند وقتی هوش مصنوعی قدرتمند میبیند دارد در بازی شکست میخورد، تصمیم میگیرد با تقلب پیروز شود.
محققان در پژوهش جدیدی پتانسیل تقلب در هوش مصنوعی را بررسی کردند. آنها دریافتند وقتی مدلهای قدرتمند میبینند دارند در بازی شکست میخورند، تصمیم میگیرند با تقلب پیروز شوند. این مدلها میتوانند بهتنهایی نقاط ضعف امنیت سایبری سیستم را پیدا و از آنها استفاده کنند.
این مقاله به بررسی این پرسش میپردازد که آیا باید حقوق اخلاقی را به حیوانات و حتی ماشینهای دارای هوش مصنوعی گسترش دهیم یا خیر. در قلب این بحث، کتاب “The Moral Circle” نوشته جف سبو (Jeff Sebo) قرار دارد که استدلال میکند آگاهی (consciousness) در میان بسیاری از گونههای حیوانی رایج است و ما باید دایره اخلاقی خود را فراتر از انسانها گسترش دهیم.
خلاصه: این پژوهش نشان میدهد که مدلهای زبانی بزرگ (LLM) و چتباتهای قدیمیتر ممکن است با گذشت زمان دچار کاهش در تواناییهای شناختی شوند، مشابه با افت شناختی در انسانها.
هوش مصنوعی (AI) بهطور فزایندهای در تشخیصهای پزشکی مورد استفاده قرار میگیرد، زیرا این ابزارها میتوانند بهسرعت و با دقت بالا ناهنجاریها و نشانههای هشداردهنده را در سوابق پزشکی، تصاویر رادیولوژی و دیگر دادهها شناسایی کنند. با این حال، پژوهشی که در ۲۰ دسامبر ۲۰۲۴ در مجله BMJ منتشر شده است. نگرانیهایی را مطرح میکند مبنی بر اینکه فناوریهایی مانند مدلهای زبانی بزرگ و چتباتها، مشابه انسانها، ممکن است با گذشت زمان دچار کاهش در تواناییهای شناختی شوند.