GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف
GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف

استفاده از لایک‌های شما برای نفوذ به درون ذهن توسط هوش مصنوعی

ویژگی‌های لایک در رسانه‌های اجتماعی می‌توانند گنجینه‌ای از داده‌ها در مورد رفتار انسان را در اختیار مدل‌های هوش مصنوعی قرار دهند. اما با هوشمندتر شدن هوش مصنوعی، آیا می‌تواند قبل از اینکه کاربران ترجیحات خود را بدانند، آنها را بشناسد؟

 

آینده دکمه لایک در عصر هوش مصنوعی چیست؟ مکس لوچین - یکی از بنیانگذاران پی‌پال و مدیرعامل افیرم - نقش جدید و بسیار ارزشمندی را برای داده‌های لایک می‌بیند تا هوش مصنوعی را آموزش دهد تا به نتایجی برسد که بیشتر با نتایج یک تصمیم‌گیرنده انسانی مطابقت دارد.

 
 

این یک معضل شناخته شده در یادگیری ماشینی است که کامپیوتری که با یک تابع پاداش واضح ارائه می‌شود، برای بهبود عملکرد خود و به حداکثر رساندن آن پاداش، درگیر یادگیری تقویتی بی‌وقفه می‌شود - اما این مسیر بهینه‌سازی اغلب سیستم‌های هوش مصنوعی را به نتایج بسیار متفاوتی نسبت به نتایج حاصل از قضاوت انسانی منجر می‌شود.

برای معرفی یک نیروی اصلاحی، توسعه‌دهندگان هوش مصنوعی اغلب از چیزی به نام یادگیری تقویتی از بازخورد انسانی[1] (RLHF) استفاده می‌کنند. اساساً آنها با آموزش کامپیوتر بر اساس داده‌هایی که منعکس کننده ترجیحات واقعی افراد واقعی هستند، در حالی که کامپیوتر به مدل خود می‌رسد، انگشت شست انسان را در مقیاس قرار می‌دهند. اما این داده‌های ترجیحات انسانی از کجا می‌آیند و چه مقدار از آنها برای معتبر بودن ورودی لازم است؟ تاکنون، مشکل RLHF همین بوده است: اگر نیاز به استخدام ناظران و مفسران انسانی برای وارد کردن بازخورد داشته باشد، روشی پرهزینه است.

و این مشکلی است که لوچین فکر می‌کند می‌تواند با دکمه لایک حل شود. او منبع انباشته‌ای را که امروز در دست فیس‌بوک است، موهبتی برای هر توسعه‌دهنده‌ای می‌داند که می‌خواهد یک عامل هوشمند را بر اساس داده‌های ترجیحات انسانی آموزش دهد. و این چقدر مهم است؟ لوچین به ما گفت: «من معتقدم که یکی از ارزشمندترین چیزهایی که فیس‌بوک در اختیار دارد، کوهی از داده‌های لایک است.» در واقع، در این نقطه عطف در توسعه هوش مصنوعی، دسترسی به «محتوایی که انسان‌ها دوست دارند، برای استفاده در آموزش مدل‌های هوش مصنوعی، احتمالاً یکی از ارزشمندترین چیزهای منحصر به فرد در اینترنت است.»

در حالی که لوچین یادگیری هوش مصنوعی از ترجیحات انسانی از طریق دکمه لایک را پیش‌بینی می‌کند، هوش مصنوعی در وهله اول نحوه شکل‌گیری این ترجیحات را تغییر می‌دهد. در واقع، پلتفرم‌های رسانه‌های اجتماعی نه تنها برای تحلیل لایک‌ها، بلکه برای پیش‌بینی آنها نیز به طور فعال از هوش مصنوعی استفاده می‌کنند - که به طور بالقوه خود دکمه لایک را منسوخ می‌کند.

این یک مشاهده قابل توجه برای ما بود، زیرا همانطور که با اکثر افراد صحبت کردیم، پیش‌بینی‌ها بیشتر از زاویه دیگری مطرح می‌شدند، نه اینکه چگونه دکمه لایک بر عملکرد هوش مصنوعی تأثیر می‌گذارد، بلکه اینکه چگونه هوش مصنوعی دنیای دکمه لایک را تغییر می‌دهد. قبلاً شنیده بودیم که هوش مصنوعی برای بهبود الگوریتم‌های رسانه‌های اجتماعی به کار گرفته می‌شود. به عنوان مثال، در اوایل سال 2024، فیس‌بوک با استفاده از هوش مصنوعی، الگوریتمی را که ویدیوهای Reels را به کاربران توصیه می‌کند، دوباره طراحی کرد. آیا می‌تواند وزن‌دهی بهتری به متغیرها ارائه دهد تا پیش‌بینی کند کاربر بیشتر دوست دارد کدام ویدیو را در مرحله بعد تماشا کند؟ نتیجه این آزمایش اولیه نشان داد که می‌تواند:

اعمال هوش مصنوعی بر این کار با افزایش زمان تماشا نتیجه داد - معیار عملکردی که فیس‌بوک امیدوار بود آن را تقویت کند.

وقتی از استیو چن، یکی از بنیان‌گذاران یوتیوب، پرسیدیم که آینده‌ی دکمه‌ی لایک چه خواهد بود، گفت: «گاهی اوقات از خودم می‌پرسم که آیا وقتی هوش مصنوعی به اندازه‌ی کافی پیشرفته باشد که بتواند با دقت ۱۰۰ درصد به الگوریتم بگوید که شما می‌خواهید در مرحله‌ی بعد بر اساس الگوهای مشاهده و اشتراک‌گذاری چه چیزی را تماشا کنید، به دکمه‌ی لایک نیاز خواهد بود یا خیر. تاکنون، دکمه‌ی لایک ساده‌ترین راه برای پلتفرم‌های محتوا برای انجام این کار بوده است، اما هدف نهایی این است که با هر داده‌ای که در دسترس است، این کار را تا حد امکان آسان و دقیق کنیم.»

با این حال، او در ادامه اشاره کرد که یکی از دلایلی که ممکن است همیشه به دکمه‌ی لایک نیاز باشد، مدیریت تغییرات شدید یا موقت در نیازهای مشاهده به دلیل وقایع یا موقعیت‌های زندگی است. او گفت: «روزهایی هست که می‌خواهم محتوایی را تماشا کنم که کمی بیشتر به مثلاً فرزندانم مربوط می‌شود.» چن همچنین توضیح داد که دکمه‌ی لایک ممکن است به دلیل نقشش در جذب تبلیغ‌کنندگان - گروه کلیدی دیگر در کنار بینندگان و سازندگان - ماندگاری داشته باشد، زیرا لایک به عنوان ساده‌ترین رابط ممکن برای اتصال این سه گروه عمل می‌کند. با یک ضربه، بیننده به طور همزمان قدردانی و بازخورد خود را مستقیماً به ارائه‌دهنده‌ی محتوا منتقل می‌کند و شواهدی از تعامل و ترجیح خود را به تبلیغ‌کننده نشان می‌دهد.

یکی دیگر از تأثیرات عمده هوش مصنوعی، استفاده روزافزون آن برای تولید محتوایی است که تابع واکنش‌های عاطفی افراد است. در حال حاضر، حجم فزاینده‌ای از محتوا - چه متن و چه تصویر - که مورد پسند کاربران رسانه‌های اجتماعی قرار می‌گیرد، توسط هوش مصنوعی تولید می‌شود. جای تعجب است که آیا هدف اصلی دکمه لایک - یعنی ایجاد انگیزه بیشتر کاربران برای تولید محتوا - همچنان مرتبط باقی خواهد ماند. آیا اگر کاربران انسانی آنها دیگر پست نگذارند، پلتفرم‌ها به همان اندازه موفق خواهند بود؟

البته این سوال، مشکل اصالت را مطرح می‌کند. در طول نمایش بین دو نیمه سوپر بول ۲۰۲۴، خواننده آلیشیا کیز یک نکته تلخ را مطرح کرد که هر شنونده دقیقی که به این رویداد زنده گوش می‌داد، متوجه آن شد. با این حال، وقتی ضبط اجرای او کمی بعد در یوتیوب آپلود شد، آن اشتباه به طور یکپارچه اصلاح شده بود، بدون اینکه هیچ اعلانی مبنی بر تغییر ویدیو وجود داشته باشد. این یک چیز جزئی است (و برای کیز به خاطر اجرای زنده در وهله اول خوب است)، اما با این وجود، این اصلاح زیرکانه باعث تعجب شد. از قضا، او داشت آهنگ If I Ain’t Got You را می‌خواند - و در نهایت طرفدارانش چیزی کمی متفاوت از او دریافت کردند.

اگر هوش مصنوعی می‌تواند محتوای سرگرمی را به طور نامحسوس اصلاح کند، می‌تواند برای اهداف فریبنده‌تر نیز مورد استفاده قرار گیرد. همان فناوری که می‌تواند یک نت موسیقی را اصلاح کند، می‌تواند به راحتی یک صدا را شبیه‌سازی کند و منجر به عواقب بسیار جدی‌تری شود.

ترسناک‌تر از آن، روندی است که کمیسیون ارتباطات فدرال ایالات متحده (FCC) و معادل‌های آن در جاهای دیگر اخیراً با آن مقابله کرده‌اند: استفاده از هوش مصنوعی برای «شبیه‌سازی» صدای یک فرد و قرار دادن کلمات در دهان او. به نظر می‌رسد که آنها صحبت می‌کنند، اما ممکن است خودشان نباشند - ممکن است یک شیاد باشد که سعی دارد پدربزرگ آن شخص را فریب دهد تا باج بپردازد یا سعی کند به نام او تراکنش مالی انجام دهد. در ژانویه 2024، پس از حادثه‌ای که در آن تماس‌های رباتیک صدای رئیس جمهور جو بایدن را جعل می‌کردند، FCC راهنمایی روشنی صادر کرد مبنی بر اینکه چنین جعل هویتی طبق مفاد قانون حمایت از مصرف‌کننده تلفن غیرقانونی است و به مصرف‌کنندگان هشدار داد که مراقب باشند.

جسیکا روزن‌ورسل، رئیس کمیسیون ارتباطات فدرال (FCC)، گفت: «کلون‌سازی صدا و تصاویر تولید شده توسط هوش مصنوعی، با فریب دادن مصرف‌کنندگان و القای این تصور که کلاهبرداری‌ها و تقلب‌ها مشروع هستند، در حال حاضر باعث سردرگمی می‌شوند. مهم نیست طرفدار چه فرد مشهور یا سیاستمداری هستید، یا وقتی آنها برای کمک تماس می‌گیرند، چه رابطه‌ای با خویشاوندانتان دارید، ممکن است همه ما هدف این تماس‌های جعلی قرار بگیریم.»

بدون تظاهرهای متقلبانه‌ای مانند این، آینده‌ای پر از هوش مصنوعی در رسانه‌های اجتماعی می‌تواند مملو از افراد به ظاهر واقعی باشد که صرفاً توسط رایانه تولید شده‌اند. چنین ترکیبات مجازی در حال نفوذ به جامعه اینفلوئنسرهای آنلاین و به دست آوردن انبوهی از طرفداران در پلتفرم‌های رسانه‌های اجتماعی هستند. به عنوان مثال، «آیتانا لوپز» مرتباً تصاویری از زندگی رشک‌برانگیز خود به عنوان یک موسیقیدان و مدگرای زیبای اسپانیایی منتشر می‌کند. آخرین باری که بررسی کردیم، حساب اینستاگرام او تا ۳۱۰ هزار دنبال‌کننده داشت و او با هزینه‌ای حدود ۱۰۰۰ دلار برای هر پست، برای برندهای مراقبت از مو و لباس، از جمله ویکتوریا سیکرت، پول درمی‌آورد. اما حتماً کس دیگری پول به سختی به دست آمده‌ی او را خرج می‌کند، چون آیتانا واقعاً به لباس یا غذا یا جایی برای زندگی نیاز ندارد. او مخلوق برنامه‌ریزی‌شده‌ی یک آژانس تبلیغاتی است - آژانسی که کارش را با مرتبط کردن برندها با اینفلوئنسرهای واقعی انسانی آغاز کرد، اما متوجه شد که مدیریت انسان‌ها همیشه آسان نیست.

با توجه به اینکه اینفلوئنسرها و ربات‌های مبتنی بر هوش مصنوعی با سرعتی بی‌سابقه با یکدیگر تعامل می‌کنند، ممکن است ساختار تعامل آنلاین در حال تغییر باشد. اگر لایک‌ها دیگر از افراد واقعی نباشند و محتوا دیگر توسط آنها ایجاد نشود، این چه معنایی برای آینده اقتصاد لایک دارد؟

در سناریویی که نه تنها یادآور فیلم «او» محصول ۲۰۱۳ است، بلکه از آن فراتر می‌رود، اکنون می‌توانید اشتراکی بخرید که به شما امکان می‌دهد با هر چه دلتان می‌خواهد با یک «دوست» روی صفحه چت کنید. CarynAI یک کپی هوش مصنوعی از یک اینفلوئنسر آنلاین واقعی به نام کارین مارجوری است که پیش از این بیش از یک میلیون دنبال‌کننده در اسنپ‌چت به دست آورده بود، زمانی که تصمیم گرفت با یک شرکت هوش مصنوعی همکاری کند و یک چت‌بات توسعه دهد. کسانی که مایل به گفتگوی یک به یک با کارین مجازی هستند، یک دلار در دقیقه پرداخت می‌کنند و مکالمه چت‌بات توسط نرم‌افزار GPT-4 OpenAI تولید می‌شود، همانطور که بر اساس آرشیوی از محتوایی که مارجوری قبلاً در یوتیوب منتشر کرده بود، آموزش دیده است.

CarynAI یک کپی هوش مصنوعی از یک اینفلوئنسر آنلاین واقعی به نام کارین مارجوری است. می‌توانیم سناریویی را تصور کنیم که در آن بخش بزرگی از لایک‌ها به محتوای ساخته‌ی دست بشر تعلق نمی‌گیرد - و توسط افراد واقعی نیز اعطا نمی‌شوند. ما می‌توانیم دنیای دیجیتالی داشته باشیم که توسط سازندگان و مصرف‌کنندگان ترکیبی که با سرعت برق با یکدیگر تعامل دارند، اشغال شده است. مطمئناً اگر این اتفاق بیفتد، حتی تا حدی، مشکلات جدیدی برای حل وجود خواهد داشت، مربوط به نیاز ما به دانستن اینکه چه کسی واقعاً کیست (یا چیست)، و اینکه چه زمانی یک پست به ظاهر محبوب واقعاً ارزش بررسی دارد.

آیا ما آینده‌ای می‌خواهیم که در آن لایک‌های واقعی ما (و هر کس دیگری) شفاف‌تر و غیرقابل پنهان شدن باشند؟ یا می‌خواهیم (برای خودمان و همچنین برای دیگران) توانایی پنهان کردن را حفظ کنیم؟ به نظر می‌رسد که شاهد توسعه ابزارهای جدیدی خواهیم بود که شفافیت و اطمینان بیشتری را در مورد اینکه آیا یک لایک به یک شخص واقعی یا فقط یک ربات واقع‌گرایانه متصل است، فراهم می‌کنند. پلتفرم‌های مختلف ممکن است چنین ابزارهایی را به درجات مختلف اعمال کنند.



[1] reinforcement learning from human feedback

نظرات 0 + ارسال نظر
ایمیل شما بعد از ثبت نمایش داده نخواهد شد