نظریه گراف یک چارچوب ریاضی برای مدلسازی ارتباطات زوجی بین عناصر یک شبکه ارائه میکند و آن را برای تجزیه و تحلیل الگوهای اتصال پیچیده مغز انسان مناسب میسازد. این به محققان اجازه میدهد تا مغز را بهعنوان یک گراف مدلسازی کنند، گرههایی که نواحی مغز را نشان میدهند و لبهها نشاندهنده ارتباط بین آنهاست. این رویکرد به درک چگونگی ظهور ویژگیهای مغز از طریق تعامل واحدهای عصبی مجزا کمک میکند.
روشهای رایج برای گرافها به اطلاعات برچسبها و لبههای فراوانی برای یادگیری نیاز دارند، با این حال بسیاری از گرافهای دنیای واقعی فقط چند برچسب در دسترس دارند. این یک چالش جدید است: چگونه میتوان پیشبینیهای دقیق در رژیمهای کم داده انجام داد؟
وقتی دادههای یک کار جدید کمیاب است، فرا یادگیری میتواند از تجربیات قبلی بیاموزد و سوگیریهای استقرایی بسیار مورد نیاز را برای انطباق سریع با وظایف جدید شکل دهد. با این حال، یک روش سیستماتیک برای فرمولبندی مسائل فرا یادگیری بر روی دادههای ساختاریافته گراف وجود ندارد. در این کار، ما ابتدا سه مسئله فرایادگیری گراف مهم اما متمایز را فرموله میکنیم. ایده اصلی انطباق با گراف یا مجموعه برچسب مورد علاقه با یادگیری از گرافها یا مجموعه برچسبهای مرتبط است.
یادگیری متضاد گراف در سطح گره
شبکههای عصبی گراف بسیار محبوب شدهاند و اغلب به بازنماییهای یادگیری برای کارهای پایین دستی متکی هستند. این پست وبلاگ در مورد یادگیری متضاد گراف، یک تکنیک یادگیری بدون نظارت برای ساختن بازنماییهایی از دادههای بدون برچسب بحث خواهد کرد. این ایده مبتنی بر تغییر اندکی گرافها است تا مدل بتواند مفهوم شباهت را بیاموزد. ما ایدههای اصلی را در پشت یادگیری متضاد گراف ارائه خواهیم داد و به ادبیات زیربنایی ارجاع خواهیم داد. با این حال، برای معرفی کاملتر، ما بررسیهای لیو و همکاران[1] و زی و همکاران[2] را توصیه میکنیم، که موضوع را به طور عمیق پوشش میدهد و الهام بخش این پست است.
مقدمه
اگرچه مقدار دادههای موجود به طور پیوسته افزایش یافته است، بسیاری از آنها نه پردازش میشوند و نه حاشیهنویسی میشوند. در حالی که برچسبزدن دستی ممکن است گزینهای برای تعداد نسبتاً کمی از نمونهها باشد، معمولاً در سناریوهای دنیای واقعی غیرممکن است. یادگیری خود نظارت راهی برای استفاده از مقادیر زیادی از دادههای بدون برچسب برای یادگیری بازنماییهای معنادار با بهرهبرداری از ساختار ضمنی است. بازنماییها روشی فشرده برای توصیف مهمترین جنبههای داده در بسیاری از حوزههای مختلف هستند. به عنوان مثال، بازنماییها میتوانند ماهیت کلمات را به تصویر بکشند[3]، پروتئینها[4] یا نشان دهنده گرههای یک گراف است[5]،[6]. این بازنماییها میتوانند بعداً بهعنوان ورودی یک شبکه عصبی استفاده شوند که یک برچسب برای هر گره پیشبینی میکند[7]،[8]، که فقط به چند نمونه حاشیهنویسی برای تنظیم دقیق نیاز دارد.
یادگیری خود نظارتی بیشتر در کارهای بینایی کامپیوتری مانند حذف نویز تصویر[9]،[10] و همچنین در پردازش زبان طبیعی[11] استفاده میشود. یادگیری متضاد یک روش مشخص از یادگیری خود نظارت است که بازنماییها را میآموزد تا ساختارهای مشابه در دادهها بازنماییهای مشابهی را به اشتراک بگذارند[12]،[13].
ادامه مطلب ...