GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف
GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف

نظریه گراف و چگونگی ظهور ویژگی‌های مغز

نظریه گراف یک چارچوب ریاضی برای مدل‌سازی ارتباطات زوجی بین عناصر یک شبکه ارائه می‌کند و آن را برای تجزیه و تحلیل الگوهای اتصال پیچیده مغز انسان مناسب می‌سازد. این به محققان اجازه می‌دهد تا مغز را به‌عنوان یک گراف مدل‌سازی کنند، گره‌هایی که نواحی مغز را نشان می‌دهند و لبه‌ها نشان‌دهنده ارتباط بین آنهاست. این رویکرد به درک چگونگی ظهور ویژگی‌های مغز از طریق تعامل واحدهای عصبی مجزا کمک می‌کند. 

 
ادامه مطلب ...

Graph Meta Learning

روش‌های رایج برای گراف‌ها به اطلاعات برچسب‌ها و لبه‌های فراوانی برای یادگیری نیاز دارند، با این حال بسیاری از گراف‌های دنیای واقعی فقط چند برچسب در دسترس دارند. این یک چالش جدید است: چگونه می‌توان پیش‌بینی‌های دقیق در رژیم‌های کم داده انجام داد؟

وقتی داده‌های یک کار جدید کمیاب است، فرا یادگیری می‌تواند از تجربیات قبلی بیاموزد و سوگیری‌های استقرایی بسیار مورد نیاز را برای انطباق سریع با وظایف جدید شکل دهد. با این حال، یک روش سیستماتیک برای فرمول‌بندی مسائل فرا یادگیری بر روی داده‌های ساختاریافته گراف وجود ندارد. در این کار، ما ابتدا سه مسئله فرایادگیری گراف مهم اما متمایز را فرموله می‌کنیم. ایده اصلی انطباق با گراف یا مجموعه برچسب مورد علاقه با یادگیری از گراف‌ها یا مجموعه برچسب‌های مرتبط است.

  ادامه مطلب ...

یادگیری متضاد گراف

 یادگیری متضاد گراف در سطح گره

شبکه‌های عصبی گراف بسیار محبوب شده‌اند و اغلب به بازنمایی‌های یادگیری برای کارهای پایین دستی متکی هستند. این پست وبلاگ در مورد یادگیری متضاد گراف، یک تکنیک یادگیری بدون نظارت برای ساختن بازنمایی‌هایی از داده‌های بدون برچسب بحث خواهد کرد. این ایده مبتنی بر تغییر اندکی گراف‌ها است تا مدل بتواند مفهوم شباهت را بیاموزد. ما ایده‌های اصلی را در پشت یادگیری متضاد گراف ارائه خواهیم داد و به ادبیات زیربنایی ارجاع خواهیم داد. با این حال، برای معرفی کامل‌تر، ما بررسی‌های لیو و همکاران[1] و زی و همکاران[2] را توصیه می‌کنیم، که موضوع را به طور عمیق پوشش می‌دهد و الهام بخش این پست است.

 

مقدمه

اگرچه مقدار داده‌های موجود به طور پیوسته افزایش یافته است، بسیاری از آنها نه پردازش می‌شوند و نه حاشیه‌نویسی می‌شوند. در حالی که برچسب‌زدن دستی ممکن است گزینه‌ای برای تعداد نسبتاً کمی از نمونه‌ها باشد، معمولاً در سناریوهای دنیای واقعی غیرممکن است. یادگیری خود نظارت راهی برای استفاده از مقادیر زیادی از داده‌های بدون برچسب برای یادگیری بازنمایی‌های معنادار با بهره‌برداری از ساختار ضمنی است. بازنمایی‌ها روشی فشرده برای توصیف مهم‌ترین جنبه‌های داده در بسیاری از حوزه‌های مختلف هستند. به عنوان مثال، بازنمایی‌ها می‌توانند ماهیت کلمات را به تصویر بکشند[3]، پروتئین‌ها[4] یا نشان دهنده گره‌های یک گراف است[5]،[6]. این بازنمایی‌ها می‌توانند بعداً به‌عنوان ورودی یک شبکه عصبی استفاده شوند که یک برچسب برای هر گره پیش‌بینی می‌کند[7]،[8]، که فقط به چند نمونه حاشیه‌نویسی برای تنظیم دقیق نیاز دارد.

یادگیری خود نظارتی بیشتر در کارهای بینایی کامپیوتری مانند حذف نویز تصویر[9]،[10] و همچنین در پردازش زبان طبیعی[11] استفاده می‌شود. یادگیری متضاد یک روش مشخص از یادگیری خود نظارت است که بازنمایی‌ها را می‌آموزد تا ساختارهای مشابه در داده‌ها بازنمایی‌های مشابهی را به اشتراک بگذارند[12]،[13].

 

ادامه مطلب ...