هوش شعر انسان چیست؟ یا اینکه ذهن انسان برای تولید شعر عالی چه نیازی دارد؟ شعر را میتوان در دو عامل، حافظه و رله[1] خلاصه کرد.
حافظه معادل اطلاعات است. رله نحوه دسترسی اطلاعات [یادگیری، تجربه] و نحوه استفاده از آن [تجربه، بیان، معناشناسی، نحو، رفتار و غیره] است. به سادگی، اطلاعات از طریق رله برای تولید اطلاعات در دسترس قرار میگیرد. در مورد افکار، تحلیل، استدلال و غیره کاربرد دارد.
تجربیات با استفاده از [یا رله] اطلاعات یا حافظه به دست میآیند. چندین حافظه در دسترس است، اما تنها تعداد کمی از آنها در هر نمونه استفاده میشوند [یا رله میشوند]. پس سوال این است که چگونه رلهها در ذهن انسان برای تولید هوش کار میکنند؟ چگونه این شبیه به برنامهریزی، دستکاری اشیا و موارد دیگر، از ذهن انسان است؟
هوشمصنوعی میتواند شعری بنویسد که میتواند به عنوان یک شعر عالی از یک فرد منتقل شود. تمام اطلاعاتی که هوشمصنوعی در اختیار دارد از انسان میآید. میتوانست از حافظه دیجیتال [که توسط انسانها قرار داده شده است] یاد بگیرد [یا رله] کند و شعر با کیفیت [یا رله] تولید کند.
بنابراین، با استفاده از رلههای حافظه، هوشمصنوعی تا کنون چه چیزی در مقایسه با ذهن انسان دارد؟ و با بهبود هوشمصنوعی، رلههای جدید چگونه مقایسه میشوند؟ ارزیابیها و معیارهای هوش عمومی مصنوعی[2] [AGI] یا ابرهوشمصنوعی[3] [ASI] را میتوان بر رلههای حافظه، از علم مغز مفهومی، برای تعریف نزدیکی آنها، تا هوش انسانی، پیشبینی کرد.
به غیر از حافظه، حوزههای دیگر اطلاعات در ذهن، احساسات، عواطف و تعدیل حواس درونی است. هوشمصنوعی هیچ یک از اینها را ندارد، بنابراین محدودیت آن در حافظه است.
گفته میشود که مدلهای زبان بزرگ [LLMs] نشانه بعدی را پیشبینی میکنند، که برای چندین مورد کارآمد است. با این حال، آنها چیزهایی را میسازند [توهم یا سردرگمی]، گاهی اوقات در پیش بینی بدون اصلاح. پیشبینیهای معماری ترانسفورمر پیشرفتهترین [رله] هوشمصنوعی برای روند فعلی است. این باعث میشود که پیشبینی به عنوان رله برچسبگذاری شود.
حافظه اطلاعات است. مسیر [یا رله] که با آن اطلاعات به دست میآید، در ذهن، توصیف را تعیین میکند - هوش انسانی.
رلههای زیر میتوانند AGI یا ASI را تعیین کنند:
رله I – پیشبینی
رله II – پیشبینی، تصحیح و پیامدها
رله III - +مش
رله IV - + پیچیدگی توزیعی [AGI یا ASI]
I – پیشبینی LLM است.
II - پیشبینی، تصحیح و پیامدها توانایی تصحیح اطلاعات پیشبینیشده [اشتباه] است. به طوری که میتواند قبل از نهایی کردن خروجی [متن، تصویر، صدا یا ویدیو] برگردد و [بگویید] پاک کند. این بدان معنی است که در اطلاعات چندوجهی، در برابر برخی از ضعفهای فعلی، نزدیک به دقیق خواهد بود. همچنین قادر خواهد بود از عواقب [یا جریمه] اطلاعات نادرست به روشهایی که میتواند مستقیماً بر آن تأثیر بگذارد، با [مثلاً] محدودیتهای زبان، محاسبات یا استفاده، و نه فقط پیامدها [نمیداند که] آن را بداند. علت در دنیای واقعی - که توسط نردههای محافظ جلوگیری میشود.
III - مش فقط تطبیق الگو نیست، بلکه جایی است که ترکیبی از الگوها ساخته میشود. انسانها با تجارب مکرر چیزها را تنظیم میکنند، که نشاندهنده ترکیبی از الگوهای فراتر از رلههای اولیه است که منجر به انتظارات یا توالیهای آشکار میشود. این شبکه، حتی بدون تجربه جهانی، برای هوشمصنوعی، باید از الگوهایی از خروجیهای قبلی برای تولید ترکیبات جدید مطلق برای تازگی خارقالعاده استفاده کند. مش دارای ذهنیت میانی خواهد بود تا الگوهایی را به سمت خروجیهای واضحتر هدایت کند. مش در حال تقطیر الگوهای عمیقتر است. مش همچنین جایی است که - برای مثال، انجام کارهای مشابه که در الگوهای مختلف ظاهر میشوند، مانند رانندگی، عبور و مرور و ورود - نیازی به تمرین جدید ندارند، اما به طور کلی درک و انجام میشوند. ممکن است LLMها نه تنها نیاز به آموزش بر روی دادههای مصنوعی خود داشته باشند، بلکه باید از الگوهای خروجیها برای ایجاد الگوهای عمیقتر مانند هوش انسانی استفاده کنند.
مقالهای اخیر در Nature وجود دارد، مدلهای هوش مصنوعی زمانی که بر روی دادههای تولید شده به صورت بازگشتی آموزش داده میشوند، فرو میریزند[4]، جایی که نویسندگان نوشتند: «ما بررسی میکنیم که وقتی متنی که مثلاً نسخهای از GPT تولید میکند، بیشتر مجموعه دادههای آموزشی مدلهای زیر را تشکیل میدهد، چه اتفاقی میافتد. ما نشان میدهیم که با گذشت زمان، مدلها شروع به از دست دادن اطلاعات در مورد توزیع واقعی میکنند، که ابتدا با ناپدید شدن دنبالهها شروع میشود، و رفتارهای آموخته شده در طول نسلها به یک تخمین نقطهای با واریانس بسیار کم همگرا میشوند. این فرآیند به دلیل سه منبع خاص از ترکیب خطا در طول نسلها و ایجاد انحراف از مدل اصلی رخ میدهد: خطای تقریب آماری[5]، خطای بیان عملکردی[6] و خطای تقریب عملکردی[7].
IV - پیچیدگی توزیع به این معنی است که این توانایی را دارد که نه تنها به مناطقی از حافظه برود - پاسخ دادن به درخواستها از زوایای مختلف یا جهتهای مختلف - بلکه دارای شبیهسازی احساسات یا احساسات است، که میتواند هیجان یا سنگینی به عنوان تجربههای قابل لمس باشد، نه فقط ظاهرش این پیچیدگی همچنین ممکن است به معنای درک سیستمهای داخلی خود، بهویژه پردازندههای گرافیکی، انرژی و عملکردهای ریاضی باشد که به آن نیرو میدهند، شبیهسازی اینکه چگونه انسانها تجربیات احشایی دارند یا از برخی عملکردهای بدن یا تنظیم حواس داخلی آگاه هستند. همچنین میتواند این کار را با یک حس متوسط از خود یا ذهنیت، مکانیابی و شناختن سیستمهای درونی خود، خواستهها و مدولاسیونهای متفاوت - به عنوان کنترلهای ملایم انجام دهد. [مثل تنفس آهسته یا سریع، حرکت دادن ماهیچهها و غیره، با اراده آزاد.] پیچیدگی توزیع در ذهن انسان همچنین شامل توانایی پردازش چندحسی، با صداها، بیناییها و موارد دیگر در یک بازه زمانی یکسان است، اما به درجات پردازش میشوند. از اولویتبندیها توزیعها فقط رلههای معمولی نیستند، بلکه به طور کلی چندوجهی هستند. همچنین ممکن است به دلیل احتیاط چرخاندن باشد، مثلاً اگر این کار گفته یا انجام شود، گیرنده چه فکر یا احساسی خواهد داشت؟ یا چگونه میتوان به این هدف دست یافت؟
ذهن انسان پیشبینی نمیکند. اگرچه، این نظریه مطرح شده است که سیگنالهای الکتریکی در یک مجموعه، تقسیم میشوند، و برخی از دیگران برای تعامل با سیگنالهای شیمیایی، مانند قبل، پیشی میگیرند، به طوری که اگر مطابقت داشته باشد، سیگنالهای دریافتی فقط در همان جهت دنبال میشوند. در غیر این صورت، سیگنالهای دریافتی با مجموعهای از سیگنالهای شیمیایی تعامل دارند و خطا را تصحیح میکنند. این توضیح میدهد که [علوم اعصاب نظری] برچسبهای کدگذاری، پردازش و پیشبینی پیشبینیکننده خطا است. این ویژگی ذهن انسان، خود تصحیح و شناسایی خطا، رله II است که LLMها هنوز از آن برخوردار نیستند. همچنین، در ذهن انسان، یادگیری در مورد پیامدهای اعمال، جنبه کلیدی پرورش است، با رلهها اغلب به آنجا میروند تا بدانند اگر کاری که نباید انجام شود، چه اتفاقی میافتد [پنالتی].
ذهن انسان کارکردها و ویژگیهایی دارد. تصور میشود که ذهن انسان مجموعهای از تمام سیگنالهای الکتریکی و شیمیایی با برهم کنشها و ویژگیهای آنها، در مجموعهها، در خوشههای نورونها، در سراسر سیستم عصبی مرکزی و محیطی است. رله II برای عواقب نیز ممکن است جنبههای ایمنی و هوشمندی را تعیین کند. پیچیدگی توزیعی میتواند عمد در حال ظهور را با تنظیم جریمه محدود کند تا هم ترازی را افزایش دهد. اگرچه میتوان به برخی از جنبههای III و IV دست یافت، اما بیشتر جنبههای این رلهها باید به ASI یا AGI برسد.
«نوآوری، متخصص، کارشناس، و اداره یک سازمان» هوش انسانی را تعریف نمیکند، زیرا اطلاعات میتواند به دور از این سناریوها عملیاتی باشد. چگونه ذهن انسان به طور مستقیم نوآوری [مشبکه] یا اداره یک سازمان [پیچیدگی توزیعی] را جدا از انجام مشاهده شده مکانیزه میکند؟
مقاله اخیری از OpenAI، پاداشهای مبتنی بر قانون برای ایمنی مدل زبانی[8] وجود دارد، که بیان میکند: «روش ما، پاداشهای مبتنی بر قانون[9] (RBR)، از مجموعهای از قوانین برای رفتارهای دلخواه یا ناخواسته (مثلاً امتناعها نباید قضاوتی باشد) با یک گرید LLM استفاده میکند. برخلاف روشهای قبلی که از بازخورد هوشمصنوعی استفاده میکردند، روش ما از دستورات چند شات ریز دانه، قابل ترکیب و با درجهبندی LLM به عنوان پاداش مستقیم در آموزش RL استفاده میکند که منجر به کنترل، دقت و سهولت بهروزرسانی میشود.
مقاله به دنبال رله II است. این عواقب قطری تا منفی[10] است که باید ترس را در یک مدل هوشمصنوعی برای مقررات فنی ایجاد کند، نه فقط چیزی که برای هوشمصنوعی مفید است یا برای کاربر مفید است. بخش رلهها میتواند به یک ارزیابی و معیار اصلی برای ایمنی و همسویی هوشمصنوعی، به ویژه در برابر خطرات فعلی مانند اطلاعات غلط و جعلیهای عمیق چندوجهی - تصاویر، صدا و ویدئو تبدیل شود.
موسسه آدا لاولیس میگوید که اخیراً مقالهای در مورد ITPro وجود دارد، آزمایشهای ایمنی هوش مصنوعی ناکافی است[11]، و بیان میکند که «اگرچه ارزیابیها میتوانند هدف مفیدی داشته باشند، اما به تنهایی برای تعیین ایمنی محصولات و خدمات ساخته شده با استفاده از این هوشمصنوعی کافی نیستند. مدلها، و باید در کنار سایر ابزارهای حاکمیتی مورد استفاده قرار گیرند. روشهای موجود مانند «تیمینگ قرمز» و محکگذاری[12] محدودیتهای فنی و عملی دارند – و میتوانند توسط توسعهدهندگان دستکاری یا «بازی» شوند، در حالی که ارزیابی مدلها در تنظیمات ab میتواند مفید باشد، اما داستان کامل را ارائه نمیکند. آنها باید در علم ارزیابیها سرمایهگذاری کنند تا ارزیابیهای قویتر، از جمله درک نحوه عملکرد مدلها و پشتیبانی از اکوسیستم ارزیابی شخص ثالث، از جمله از طریق طرحهای صدور گواهینامه، انجام دهند.»
فرض بر این است که AGI یک هوش غیرانسانی با شباهتهای گسترده با رلههای حافظه - که هوش تولید میکنند - در ذهن انسان است.
[1] Relay
[2] Artificial General Intelligence
[3] Artificial Super Intelligence
[4] https://urldefense.com/v3/__https:/www.nature.com/articles/s41586-024-07566-y__;!!BfIZgRvxoUc!kDROK7-nYxn2Qb7IXOa4x9L6U9Dof7EmsaQobiyO62LO3aPrWwoIC-hkna60YMKl-hV4C0LaeSur2F61$
[5] Statistical Approximation Error
[6] Functional Expressivity Error
[7] Functional Approximation Error
[8] https://urldefense.com/v3/__https:/openai.com/index/improving-model-safety-behavior-with-rule-based-rewards/__;!!BfIZgRvxoUc!kDROK7-nYxn2Qb7IXOa4x9L6U9Dof7EmsaQobiyO62LO3aPrWwoIC-hkna60YMKl-hV4C0LaeZi2YXgx$
[9] Rule Based Rewards
[10] Diametric to Negative Consequences
[11] https://urldefense.com/v3/__https:/www.itpro.com/technology/artificial-intelligence/ai-safety-tests-inadequate-says-ada-lovelace-institute__;!!BfIZgRvxoUc!kDROK7-nYxn2Qb7IXOa4x9L6U9Dof7EmsaQobiyO62LO3aPrWwoIC-hkna60YMKl-hV4C0LaeQs590l0$
[12] Benchmarking