ویژگیهای لایک در رسانههای اجتماعی میتوانند گنجینهای از دادهها در مورد رفتار انسان را در اختیار مدلهای هوش مصنوعی قرار دهند. اما با هوشمندتر شدن هوش مصنوعی، آیا میتواند قبل از اینکه کاربران ترجیحات خود را بدانند، آنها را بشناسد؟
آینده دکمه لایک در عصر هوش مصنوعی چیست؟ مکس لوچین - یکی از بنیانگذاران پیپال و مدیرعامل افیرم - نقش جدید و بسیار ارزشمندی را برای دادههای لایک میبیند تا هوش مصنوعی را آموزش دهد تا به نتایجی برسد که بیشتر با نتایج یک تصمیمگیرنده انسانی مطابقت دارد.
این یک معضل شناخته شده در یادگیری ماشینی است که کامپیوتری که با یک تابع پاداش واضح ارائه میشود، برای بهبود عملکرد خود و به حداکثر رساندن آن پاداش، درگیر یادگیری تقویتی بیوقفه میشود - اما این مسیر بهینهسازی اغلب سیستمهای هوش مصنوعی را به نتایج بسیار متفاوتی نسبت به نتایج حاصل از قضاوت انسانی منجر میشود.
برای معرفی یک نیروی اصلاحی، توسعهدهندگان هوش مصنوعی اغلب از چیزی به نام یادگیری تقویتی از بازخورد انسانی[1] (RLHF) استفاده میکنند. اساساً آنها با آموزش کامپیوتر بر اساس دادههایی که منعکس کننده ترجیحات واقعی افراد واقعی هستند، در حالی که کامپیوتر به مدل خود میرسد، انگشت شست انسان را در مقیاس قرار میدهند. اما این دادههای ترجیحات انسانی از کجا میآیند و چه مقدار از آنها برای معتبر بودن ورودی لازم است؟ تاکنون، مشکل RLHF همین بوده است: اگر نیاز به استخدام ناظران و مفسران انسانی برای وارد کردن بازخورد داشته باشد، روشی پرهزینه است.
و این مشکلی است که لوچین فکر میکند میتواند با دکمه لایک حل شود. او منبع انباشتهای را که امروز در دست فیسبوک است، موهبتی برای هر توسعهدهندهای میداند که میخواهد یک عامل هوشمند را بر اساس دادههای ترجیحات انسانی آموزش دهد. و این چقدر مهم است؟ لوچین به ما گفت: «من معتقدم که یکی از ارزشمندترین چیزهایی که فیسبوک در اختیار دارد، کوهی از دادههای لایک است.» در واقع، در این نقطه عطف در توسعه هوش مصنوعی، دسترسی به «محتوایی که انسانها دوست دارند، برای استفاده در آموزش مدلهای هوش مصنوعی، احتمالاً یکی از ارزشمندترین چیزهای منحصر به فرد در اینترنت است.»
در حالی که لوچین یادگیری هوش مصنوعی از ترجیحات انسانی از طریق دکمه لایک را پیشبینی میکند، هوش مصنوعی در وهله اول نحوه شکلگیری این ترجیحات را تغییر میدهد. در واقع، پلتفرمهای رسانههای اجتماعی نه تنها برای تحلیل لایکها، بلکه برای پیشبینی آنها نیز به طور فعال از هوش مصنوعی استفاده میکنند - که به طور بالقوه خود دکمه لایک را منسوخ میکند.
این یک مشاهده قابل توجه برای ما بود، زیرا همانطور که با اکثر افراد صحبت کردیم، پیشبینیها بیشتر از زاویه دیگری مطرح میشدند، نه اینکه چگونه دکمه لایک بر عملکرد هوش مصنوعی تأثیر میگذارد، بلکه اینکه چگونه هوش مصنوعی دنیای دکمه لایک را تغییر میدهد. قبلاً شنیده بودیم که هوش مصنوعی برای بهبود الگوریتمهای رسانههای اجتماعی به کار گرفته میشود. به عنوان مثال، در اوایل سال 2024، فیسبوک با استفاده از هوش مصنوعی، الگوریتمی را که ویدیوهای Reels را به کاربران توصیه میکند، دوباره طراحی کرد. آیا میتواند وزندهی بهتری به متغیرها ارائه دهد تا پیشبینی کند کاربر بیشتر دوست دارد کدام ویدیو را در مرحله بعد تماشا کند؟ نتیجه این آزمایش اولیه نشان داد که میتواند:
اعمال هوش مصنوعی بر این کار با افزایش زمان تماشا نتیجه داد - معیار عملکردی که فیسبوک امیدوار بود آن را تقویت کند.
وقتی از استیو چن، یکی از بنیانگذاران یوتیوب، پرسیدیم که آیندهی دکمهی لایک چه خواهد بود، گفت: «گاهی اوقات از خودم میپرسم که آیا وقتی هوش مصنوعی به اندازهی کافی پیشرفته باشد که بتواند با دقت ۱۰۰ درصد به الگوریتم بگوید که شما میخواهید در مرحلهی بعد بر اساس الگوهای مشاهده و اشتراکگذاری چه چیزی را تماشا کنید، به دکمهی لایک نیاز خواهد بود یا خیر. تاکنون، دکمهی لایک سادهترین راه برای پلتفرمهای محتوا برای انجام این کار بوده است، اما هدف نهایی این است که با هر دادهای که در دسترس است، این کار را تا حد امکان آسان و دقیق کنیم.»
با این حال، او در ادامه اشاره کرد که یکی از دلایلی که ممکن است همیشه به دکمهی لایک نیاز باشد، مدیریت تغییرات شدید یا موقت در نیازهای مشاهده به دلیل وقایع یا موقعیتهای زندگی است. او گفت: «روزهایی هست که میخواهم محتوایی را تماشا کنم که کمی بیشتر به مثلاً فرزندانم مربوط میشود.» چن همچنین توضیح داد که دکمهی لایک ممکن است به دلیل نقشش در جذب تبلیغکنندگان - گروه کلیدی دیگر در کنار بینندگان و سازندگان - ماندگاری داشته باشد، زیرا لایک به عنوان سادهترین رابط ممکن برای اتصال این سه گروه عمل میکند. با یک ضربه، بیننده به طور همزمان قدردانی و بازخورد خود را مستقیماً به ارائهدهندهی محتوا منتقل میکند و شواهدی از تعامل و ترجیح خود را به تبلیغکننده نشان میدهد.
یکی دیگر از تأثیرات عمده هوش مصنوعی، استفاده روزافزون آن برای تولید محتوایی است که تابع واکنشهای عاطفی افراد است. در حال حاضر، حجم فزایندهای از محتوا - چه متن و چه تصویر - که مورد پسند کاربران رسانههای اجتماعی قرار میگیرد، توسط هوش مصنوعی تولید میشود. جای تعجب است که آیا هدف اصلی دکمه لایک - یعنی ایجاد انگیزه بیشتر کاربران برای تولید محتوا - همچنان مرتبط باقی خواهد ماند. آیا اگر کاربران انسانی آنها دیگر پست نگذارند، پلتفرمها به همان اندازه موفق خواهند بود؟
البته این سوال، مشکل اصالت را مطرح میکند. در طول نمایش بین دو نیمه سوپر بول ۲۰۲۴، خواننده آلیشیا کیز یک نکته تلخ را مطرح کرد که هر شنونده دقیقی که به این رویداد زنده گوش میداد، متوجه آن شد. با این حال، وقتی ضبط اجرای او کمی بعد در یوتیوب آپلود شد، آن اشتباه به طور یکپارچه اصلاح شده بود، بدون اینکه هیچ اعلانی مبنی بر تغییر ویدیو وجود داشته باشد. این یک چیز جزئی است (و برای کیز به خاطر اجرای زنده در وهله اول خوب است)، اما با این وجود، این اصلاح زیرکانه باعث تعجب شد. از قضا، او داشت آهنگ If I Ain’t Got You را میخواند - و در نهایت طرفدارانش چیزی کمی متفاوت از او دریافت کردند.
اگر هوش مصنوعی میتواند محتوای سرگرمی را به طور نامحسوس اصلاح کند، میتواند برای اهداف فریبندهتر نیز مورد استفاده قرار گیرد. همان فناوری که میتواند یک نت موسیقی را اصلاح کند، میتواند به راحتی یک صدا را شبیهسازی کند و منجر به عواقب بسیار جدیتری شود.
ترسناکتر از آن، روندی است که کمیسیون ارتباطات فدرال ایالات متحده (FCC) و معادلهای آن در جاهای دیگر اخیراً با آن مقابله کردهاند: استفاده از هوش مصنوعی برای «شبیهسازی» صدای یک فرد و قرار دادن کلمات در دهان او. به نظر میرسد که آنها صحبت میکنند، اما ممکن است خودشان نباشند - ممکن است یک شیاد باشد که سعی دارد پدربزرگ آن شخص را فریب دهد تا باج بپردازد یا سعی کند به نام او تراکنش مالی انجام دهد. در ژانویه 2024، پس از حادثهای که در آن تماسهای رباتیک صدای رئیس جمهور جو بایدن را جعل میکردند، FCC راهنمایی روشنی صادر کرد مبنی بر اینکه چنین جعل هویتی طبق مفاد قانون حمایت از مصرفکننده تلفن غیرقانونی است و به مصرفکنندگان هشدار داد که مراقب باشند.
جسیکا روزنورسل، رئیس کمیسیون ارتباطات فدرال (FCC)، گفت: «کلونسازی صدا و تصاویر تولید شده توسط هوش مصنوعی، با فریب دادن مصرفکنندگان و القای این تصور که کلاهبرداریها و تقلبها مشروع هستند، در حال حاضر باعث سردرگمی میشوند. مهم نیست طرفدار چه فرد مشهور یا سیاستمداری هستید، یا وقتی آنها برای کمک تماس میگیرند، چه رابطهای با خویشاوندانتان دارید، ممکن است همه ما هدف این تماسهای جعلی قرار بگیریم.»
بدون تظاهرهای متقلبانهای مانند این، آیندهای پر از هوش مصنوعی در رسانههای اجتماعی میتواند مملو از افراد به ظاهر واقعی باشد که صرفاً توسط رایانه تولید شدهاند. چنین ترکیبات مجازی در حال نفوذ به جامعه اینفلوئنسرهای آنلاین و به دست آوردن انبوهی از طرفداران در پلتفرمهای رسانههای اجتماعی هستند. به عنوان مثال، «آیتانا لوپز» مرتباً تصاویری از زندگی رشکبرانگیز خود به عنوان یک موسیقیدان و مدگرای زیبای اسپانیایی منتشر میکند. آخرین باری که بررسی کردیم، حساب اینستاگرام او تا ۳۱۰ هزار دنبالکننده داشت و او با هزینهای حدود ۱۰۰۰ دلار برای هر پست، برای برندهای مراقبت از مو و لباس، از جمله ویکتوریا سیکرت، پول درمیآورد. اما حتماً کس دیگری پول به سختی به دست آمدهی او را خرج میکند، چون آیتانا واقعاً به لباس یا غذا یا جایی برای زندگی نیاز ندارد. او مخلوق برنامهریزیشدهی یک آژانس تبلیغاتی است - آژانسی که کارش را با مرتبط کردن برندها با اینفلوئنسرهای واقعی انسانی آغاز کرد، اما متوجه شد که مدیریت انسانها همیشه آسان نیست.
با توجه به اینکه اینفلوئنسرها و رباتهای مبتنی بر هوش مصنوعی با سرعتی بیسابقه با یکدیگر تعامل میکنند، ممکن است ساختار تعامل آنلاین در حال تغییر باشد. اگر لایکها دیگر از افراد واقعی نباشند و محتوا دیگر توسط آنها ایجاد نشود، این چه معنایی برای آینده اقتصاد لایک دارد؟
در سناریویی که نه تنها یادآور فیلم «او» محصول ۲۰۱۳ است، بلکه از آن فراتر میرود، اکنون میتوانید اشتراکی بخرید که به شما امکان میدهد با هر چه دلتان میخواهد با یک «دوست» روی صفحه چت کنید. CarynAI یک کپی هوش مصنوعی از یک اینفلوئنسر آنلاین واقعی به نام کارین مارجوری است که پیش از این بیش از یک میلیون دنبالکننده در اسنپچت به دست آورده بود، زمانی که تصمیم گرفت با یک شرکت هوش مصنوعی همکاری کند و یک چتبات توسعه دهد. کسانی که مایل به گفتگوی یک به یک با کارین مجازی هستند، یک دلار در دقیقه پرداخت میکنند و مکالمه چتبات توسط نرمافزار GPT-4 OpenAI تولید میشود، همانطور که بر اساس آرشیوی از محتوایی که مارجوری قبلاً در یوتیوب منتشر کرده بود، آموزش دیده است.
CarynAI یک کپی هوش مصنوعی از یک اینفلوئنسر آنلاین واقعی به نام کارین مارجوری است. میتوانیم سناریویی را تصور کنیم که در آن بخش بزرگی از لایکها به محتوای ساختهی دست بشر تعلق نمیگیرد - و توسط افراد واقعی نیز اعطا نمیشوند. ما میتوانیم دنیای دیجیتالی داشته باشیم که توسط سازندگان و مصرفکنندگان ترکیبی که با سرعت برق با یکدیگر تعامل دارند، اشغال شده است. مطمئناً اگر این اتفاق بیفتد، حتی تا حدی، مشکلات جدیدی برای حل وجود خواهد داشت، مربوط به نیاز ما به دانستن اینکه چه کسی واقعاً کیست (یا چیست)، و اینکه چه زمانی یک پست به ظاهر محبوب واقعاً ارزش بررسی دارد.
آیا ما آیندهای میخواهیم که در آن لایکهای واقعی ما (و هر کس دیگری) شفافتر و غیرقابل پنهان شدن باشند؟ یا میخواهیم (برای خودمان و همچنین برای دیگران) توانایی پنهان کردن را حفظ کنیم؟ به نظر میرسد که شاهد توسعه ابزارهای جدیدی خواهیم بود که شفافیت و اطمینان بیشتری را در مورد اینکه آیا یک لایک به یک شخص واقعی یا فقط یک ربات واقعگرایانه متصل است، فراهم میکنند. پلتفرمهای مختلف ممکن است چنین ابزارهایی را به درجات مختلف اعمال کنند.