CNDM (Complex Networks and Data Mining)

CNDM (Complex Networks and Data Mining)

شبکه‌های پیچیده و داده کاوی
CNDM (Complex Networks and Data Mining)

CNDM (Complex Networks and Data Mining)

شبکه‌های پیچیده و داده کاوی

محاسبات: معیارها، ارزیابی‌ها برای هم‌ترازی ابرهوشی، ایمنی AGI

هوش شعر انسان چیست؟ یا اینکه ذهن انسان برای تولید شعر عالی چه نیازی دارد؟ شعر را می‌توان در دو عامل، حافظه و رله[1] خلاصه کرد.

حافظه معادل اطلاعات است. رله نحوه دسترسی اطلاعات [یادگیری، تجربه] و نحوه استفاده از آن [تجربه، بیان، معناشناسی، نحو، رفتار و غیره] است. به سادگی، اطلاعات از طریق رله برای تولید اطلاعات در دسترس قرار می‌گیرد. در مورد افکار، تحلیل، استدلال و غیره کاربرد دارد.

تجربیات با استفاده از [یا رله] اطلاعات یا حافظه به دست می‌آیند. چندین حافظه در دسترس است، اما تنها تعداد کمی از آنها در هر نمونه استفاده می‌شوند [یا رله می‌شوند]. پس سوال این است که چگونه رله‌ها در ذهن انسان برای تولید هوش کار می‌کنند؟ چگونه این شبیه به برنامه‌ریزی، دستکاری اشیا و موارد دیگر، از ذهن انسان است؟

هوش‌مصنوعی می‌تواند شعری بنویسد که می‌تواند به عنوان یک شعر عالی از یک فرد منتقل شود. تمام اطلاعاتی که هوش‌مصنوعی در اختیار دارد از انسان می‌آید. می‌توانست از حافظه دیجیتال [که توسط انسان‌ها قرار داده شده است] یاد بگیرد [یا رله] کند و شعر با کیفیت [یا رله] تولید کند.

بنابراین، با استفاده از رله‌های حافظه، هوش‌مصنوعی تا کنون چه چیزی در مقایسه با ذهن انسان دارد؟ و با بهبود هوش‌مصنوعی، رله‌های جدید چگونه مقایسه می‌شوند؟ ارزیابی‌ها و معیارهای هوش عمومی مصنوعی[2] [AGI] یا ابرهوش‌مصنوعی[3] [ASI] را می‌توان بر رله‌های حافظه، از علم مغز مفهومی، برای تعریف نزدیکی آنها، تا هوش انسانی، پیش‌بینی کرد.

  

به غیر از حافظه، حوزه‌های دیگر اطلاعات در ذهن، احساسات، عواطف و تعدیل حواس درونی است. هوش‌مصنوعی هیچ یک از اینها را ندارد، بنابراین محدودیت آن در حافظه است.

گفته می‌شود که مدل‌های زبان بزرگ [LLMs] نشانه بعدی را پیش‌بینی می‌کنند، که برای چندین مورد کارآمد است. با این حال، آنها چیزهایی را می‌سازند [توهم یا سردرگمی]، گاهی اوقات در پیش بینی بدون اصلاح. پیش‌بینی‌های معماری ترانسفورمر پیشرفته‌ترین [رله] هوش‌مصنوعی برای روند فعلی است. این باعث می‌شود که پیش‌بینی به عنوان رله برچسب‌گذاری شود.

حافظه اطلاعات است. مسیر [یا رله] که با آن اطلاعات به دست می‌آید، در ذهن، توصیف را تعیین می‌کند - هوش انسانی.

رله‌های زیر می‌توانند AGI یا ASI را تعیین کنند:

رله I پیش‌بینی

رله II پیش‌بینی، تصحیح و پیامدها

رله III -  +مش

رله IV -  + پیچیدگی توزیعی [AGI یا ASI]

 

I پیش‌بینی LLM است.

II - پیش‌بینی، تصحیح و پیامدها توانایی تصحیح اطلاعات پیش‌بینی‌شده [اشتباه] است. به طوری که می‌تواند قبل از نهایی کردن خروجی [متن، تصویر، صدا یا ویدیو] برگردد و [بگویید] پاک کند. این بدان معنی است که در اطلاعات چندوجهی، در برابر برخی از ضعف‌های فعلی، نزدیک به دقیق خواهد بود. همچنین قادر خواهد بود از عواقب [یا جریمه] اطلاعات نادرست به روش‌هایی که می‌تواند مستقیماً بر آن تأثیر بگذارد، با [مثلاً] محدودیت‌های زبان، محاسبات یا استفاده، و نه فقط پیامدها [نمی‌داند که] آن را بداند. علت در دنیای واقعی - که توسط نرده‌های محافظ جلوگیری می‌شود.

III - مش فقط تطبیق الگو نیست، بلکه جایی است که ترکیبی از الگوها ساخته می‌شود. انسان‌ها با تجارب مکرر چیزها را تنظیم می‌کنند، که نشان‌دهنده ترکیبی از الگوهای فراتر از رله‌های اولیه است که منجر به انتظارات یا توالی‌های آشکار می‌شود. این شبکه، حتی بدون تجربه جهانی، برای هوش‌مصنوعی، باید از الگوهایی از خروجی‌های قبلی برای تولید ترکیبات جدید مطلق برای تازگی خارق‌العاده استفاده کند. مش دارای ذهنیت میانی خواهد بود تا الگوهایی را به سمت خروجی‌های واضح‌تر هدایت کند. مش در حال تقطیر الگوهای عمیق‌تر است. مش همچنین جایی است که - برای مثال، انجام کارهای مشابه که در الگوهای مختلف ظاهر می‌شوند، مانند رانندگی، عبور و مرور و ورود - نیازی به تمرین جدید ندارند، اما به طور کلی درک و انجام می‌شوند. ممکن است LLMها نه تنها نیاز به آموزش بر روی داده‌های مصنوعی خود داشته باشند، بلکه باید از الگوهای خروجی‌ها برای ایجاد الگوهای عمیق‌تر مانند هوش انسانی استفاده کنند.

مقاله‌ای اخیر در Nature وجود دارد، مدل‌های هوش مصنوعی زمانی که بر روی داده‌های تولید شده به صورت بازگشتی آموزش داده می‌شوند، فرو می‌ریزند[4]، جایی که نویسندگان نوشتند: «ما بررسی می‌کنیم که وقتی متنی که مثلاً نسخه‌ای از GPT تولید می‌کند، بیشتر مجموعه داده‌های آموزشی مدل‌های زیر را تشکیل می‌دهد، چه اتفاقی می‌افتد. ما نشان می‌دهیم که با گذشت زمان، مدل‌ها شروع به از دست دادن اطلاعات در مورد توزیع واقعی می‌کنند، که ابتدا با ناپدید شدن دنباله‌ها شروع می‌شود، و رفتارهای آموخته شده در طول نسل‌ها به یک تخمین نقطه‌ای با واریانس بسیار کم همگرا می‌شوند. این فرآیند به دلیل سه منبع خاص از ترکیب خطا در طول نسل‌ها و ایجاد انحراف از مدل اصلی رخ می‌دهد: خطای تقریب آماری[5]، خطای بیان عملکردی[6] و خطای تقریب عملکردی[7].

IV - پیچیدگی توزیع به این معنی است که این توانایی را دارد که نه تنها به مناطقی از حافظه برود - پاسخ دادن به درخواست‌ها از زوایای مختلف یا جهت‌های مختلف - بلکه دارای شبیه‌سازی احساسات یا احساسات است، که می‌تواند هیجان یا سنگینی به عنوان تجربه‌های قابل لمس باشد، نه فقط ظاهرش این پیچیدگی همچنین ممکن است به معنای درک سیستم‌های داخلی خود، به‌ویژه پردازنده‌های گرافیکی، انرژی و عملکردهای ریاضی باشد که به آن نیرو می‌دهند، شبیه‌سازی اینکه چگونه انسان‌ها تجربیات احشایی دارند یا از برخی عملکردهای بدن یا تنظیم حواس داخلی آگاه هستند. همچنین می‌تواند این کار را با یک حس متوسط ​​از خود یا ذهنیت، مکان‌یابی و شناختن سیستم‌های درونی خود، خواسته‌ها و مدولاسیون‌های متفاوت - به عنوان کنترل‌های ملایم انجام دهد. [مثل تنفس آهسته یا سریع، حرکت دادن ماهیچه‌ها و غیره، با اراده آزاد.] پیچیدگی توزیع در ذهن انسان همچنین شامل توانایی پردازش چندحسی، با صداها، بینایی‌ها و موارد دیگر در یک بازه زمانی یکسان است، اما به درجات پردازش می‌شوند. از اولویت‌بندی‌ها توزیع‌ها فقط رله‌های معمولی نیستند، بلکه به طور کلی چندوجهی هستند. همچنین ممکن است به دلیل احتیاط چرخاندن باشد، مثلاً اگر این کار گفته یا انجام شود، گیرنده چه فکر یا احساسی خواهد داشت؟ یا چگونه می‌توان به این هدف دست یافت؟

ذهن انسان پیش‌بینی نمی‌کند. اگرچه، این نظریه مطرح شده است که سیگنال‌های الکتریکی در یک مجموعه، تقسیم می‌شوند، و برخی از دیگران برای تعامل با سیگنال‌های شیمیایی، مانند قبل، پیشی می‌گیرند، به طوری که اگر مطابقت داشته باشد، سیگنال‌های دریافتی فقط در همان جهت دنبال می‌شوند. در غیر این صورت، سیگنال‌های دریافتی با مجموعه‌ای از سیگنال‌های شیمیایی تعامل دارند و خطا را تصحیح می‌کنند. این توضیح می‌دهد که [علوم اعصاب نظری] برچسب‌های کدگذاری، پردازش و پیش‌بینی پیش‌بینی‌کننده خطا است. این ویژگی ذهن انسان، خود تصحیح و شناسایی خطا، رله II است که LLMها هنوز از آن برخوردار نیستند. همچنین، در ذهن انسان، یادگیری در مورد پیامدهای اعمال، جنبه کلیدی پرورش است، با رله‌ها اغلب به آنجا می‌روند تا بدانند اگر کاری که نباید انجام شود، چه اتفاقی می‌افتد [پنالتی].

ذهن انسان کارکردها و ویژگی‌هایی دارد. تصور می‌شود که ذهن انسان مجموعه‌ای از تمام سیگنال‌های الکتریکی و شیمیایی با برهم کنش‌ها و ویژگی‌های آنها، در مجموعه‌ها، در خوشه‌های نورون‌ها، در سراسر سیستم عصبی مرکزی و محیطی است. رله II برای عواقب نیز ممکن است جنبه‌های ایمنی و هوشمندی را تعیین کند. پیچیدگی توزیعی می‌تواند عمد در حال ظهور را با تنظیم جریمه محدود کند تا هم ترازی را افزایش دهد. اگرچه می‌توان به برخی از جنبه‌های III و IV دست یافت، اما بیشتر جنبه‌های این رله‌ها باید به ASI یا AGI برسد.

«نوآوری، متخصص، کارشناس، و اداره یک سازمان» هوش انسانی را تعریف نمی‌کند، زیرا اطلاعات می‌تواند به دور از این سناریوها عملیاتی باشد. چگونه ذهن انسان به طور مستقیم نوآوری [مشبکه] یا اداره یک سازمان [پیچیدگی توزیعی] را جدا از انجام مشاهده شده مکانیزه می‌کند؟

مقاله اخیری از OpenAI، پاداش‌های مبتنی بر قانون برای ایمنی مدل زبانی[8] وجود دارد، که بیان می‌کند: «روش ما، پاداش‌های مبتنی بر قانون[9] (RBR)، از مجموعه‌ای از قوانین برای رفتارهای دلخواه یا ناخواسته (مثلاً امتناع‌ها نباید قضاوتی باشد) با یک گرید LLM استفاده می‌کند. برخلاف روش‌های قبلی که از بازخورد هوش‌مصنوعی استفاده می‌کردند، روش ما از دستورات چند شات ریز دانه، قابل ترکیب و با درجه‌بندی LLM به عنوان پاداش مستقیم در آموزش RL استفاده می‌کند که منجر به کنترل، دقت و سهولت به‌روزرسانی می‌شود.

مقاله به دنبال رله II است. این عواقب قطری تا منفی[10] است که باید ترس را در یک مدل هوش‌مصنوعی برای مقررات فنی ایجاد کند، نه فقط چیزی که برای هوشمصنوعی مفید است یا برای کاربر مفید است. بخش رله‌ها می‌تواند به یک ارزیابی و معیار اصلی برای ایمنی و همسویی هوش‌مصنوعی، به ویژه در برابر خطرات فعلی مانند اطلاعات غلط و جعلی‌های عمیق چندوجهی - تصاویر، صدا و ویدئو تبدیل شود.

موسسه آدا لاولیس می‌گوید که اخیراً مقاله‌ای در مورد ITPro وجود دارد، آزمایش‌های ایمنی هوش مصنوعی ناکافی است[11]، و بیان می‌کند که «اگرچه ارزیابی‌ها می‌توانند هدف مفیدی داشته باشند، اما به تنهایی برای تعیین ایمنی محصولات و خدمات ساخته شده با استفاده از این هوش‌مصنوعی کافی نیستند. مدل‌ها، و باید در کنار سایر ابزارهای حاکمیتی مورد استفاده قرار گیرند. روش‌های موجود مانند «تیمینگ قرمز» و محک‌گذاری[12] محدودیت‌های فنی و عملی دارند و می‌توانند توسط توسعه‌دهندگان دستکاری یا «بازی» شوند، در حالی که ارزیابی مدل‌ها در تنظیمات ab می‌تواند مفید باشد، اما داستان کامل را ارائه نمی‌کند. آنها باید در علم ارزیابی‌ها سرمایه‌گذاری کنند تا ارزیابی‌های قوی‌تر، از جمله درک نحوه عملکرد مدل‌ها و پشتیبانی از اکوسیستم ارزیابی شخص ثالث، از جمله از طریق طرح‌های صدور گواهینامه، انجام دهند.»

فرض بر این است که AGI یک هوش غیرانسانی با شباهت‌های گسترده با رله‌های حافظه - که هوش تولید می‌کنند - در ذهن انسان است.



[1] Relay

[2] Artificial General Intelligence

[3] Artificial Super Intelligence

[5] Statistical Approximation Error

[6] Functional Expressivity Error

[7] Functional Approximation Error

[9] Rule Based Rewards

[10] Diametric to Negative Consequences

[12] Benchmarking

نظرات 0 + ارسال نظر
ایمیل شما بعد از ثبت نمایش داده نخواهد شد