GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف
GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف

Cramming: آموزش یک مدل زبان در یک GPU

مطالعه Cramming توسط Jonas Geiping و Tom Goldstein امکان آموزش یک مدل زبان مبتنی بر ترانسفورمر را از ابتدا بر روی یک GPU تک مصرف کننده در عرض 24 ساعت بررسی می‌کند. این تحقیق روند افزایش مقیاس منابع محاسباتی را به چالش می‌کشد و به جای آن می‌پرسد که تا کجا می‌توانیم با حداقل سخت افزار پیش برویم. در زیر مروری بر مشارکت، روش‌شناسی و مفاهیم مقاله است.

 
 

 1. انگیزه

- چالش‌های مقیاس‌بندی: مدل‌های زبانی پیشرفته (مانند GPT-4، PALM) به منابع محاسباتی عظیمی نیاز دارند که آنها را برای اکثر محققان غیرقابل دسترس می‌سازد.

- سوال تحقیق: با آموزش یک مدل زبان از ابتدا با منابع محاسباتی محدود (یک GPU در یک روز) چقدر می‌توان به عملکرد دست یافت؟

- هدف: ایجاد یک خط لوله پیش‌آموزشی اصلاح‌شده که در عین رعایت محدودیت‌های منابع، به نتایج قابل مقایسه با مدل‌هایی مانند BERT دست یابد.

 2. مشارکت‌های کلیدی

- 1. خط لوله پیش آموزش اصلاح شده:

 - نویسندگان هر جزء از فرآیند پیش‌آموزشی را مجدداً تحلیل می‌کنند تا برای محاسبات محدود بهینه‌سازی شوند.

 - تنظیمات شامل ساده‌سازی معماری، روال‌های آموزشی کارآمد و تنظیم هایپرپارامتر است.

- 2. عملکرد نزدیک به BERT: با وجود منابع محدود، مدل آموزش دیده به معیارهای عملکرد قابل مقایسه با BERT در کارهای پایین دستی مانند موارد موجود در معیار GLUE دست می‌یابد.

- 3. اعتبارسنجی قوانین مقیاس: این مطالعه نشان می‌دهد که حتی در محاسبات محدود، عملکرد به قوانین مقیاسبندی مشاهده شده در سناریوهای آموزشی در مقیاس بزرگتر پایبند است.

- 4. بینشهای عملی: این مقاله پیشرفتهای اخیر معماری و آموزشی را بر اساس اثربخشی آنها در محیطهای کم منابع دسته‌بندی می‌کند.

 

 3. روش‌شناسی

تنظیمات معماری مدل

- معماری با اصلاح کاهش یافت:

 * تعداد لایهها: کاهش عمق با حفظ ظرفیت کافی برای یادگیری.

 * اندازه لایه پنهان: بهینه شده برای حافظه و راندمان محاسباتی.

 * راس‌های توجه: برای تعادل بین عملکرد و استفاده از منابع تنظیم شده است.

 

بهینهسازی خطوط لوله آموزشی

- فراپارامترهایی مانند اندازه دسته، نرخ یادگیری و تعداد دوره‌ها برای حداکثر کارایی به خوبی تنظیم شده‌اند.

- برای کاهش استفاده از حافظه و سرعت بخشیدن به محاسبات، از تکنیکهایی مانند کنترل گرادیان و آموزش دقیق ترکیبی استفاده شد.

 

هدف پیش تمرینی

- این مدل با استفاده از مدل‌سازی زبان ماسک‌شده[1] (MLM)، مشابه BERT، آموزش داده شد که شامل پیش‌بینی نشانه‌های ماسک‌شده در توالی‌های ورودی است.

4. نتایج

- 1. عملکرد پایین دستی وظیفه:

 - مدل "انباشته" نتایجی نزدیک به BERT در کارهای مختلف GLUE به دست آورد.

 - در برخی موارد، با وجود زمان و منابع محدود آموزشی، حتی از عملکرد BERT نیز پیشی گرفت.

- 2. بهره‌وری منابع:

 - کل فرآیند آموزش روی یک GPU تک مصرف کننده در عرض 24 ساعت تکمیل شد.

 - نیازهای حافظه و محاسباتی به طور قابل توجهی در مقایسه با خطوط لوله پیش‌آموزشی سنتی کاهش یافت.

- 3. قوانین مقیاسبندی مشاهده شده: این مطالعه تأیید کرد که بهبود عملکرد از قوانین مقیاس پذیری حتی در تنظیمات کم محاسبات پیروی می‌کند و کاربرد آنها را در مقیاسهای مختلف تأیید می‌کند.

 

 5. مفاهیم

برای محققان با منابع محدود: این کار با نشان دادن اینکه مدل‌های با کیفیت بالا را می‌توان بر روی سخت‌افزار درجه یک مصرف‌کننده آموزش داد، دسترسی به تحقیقات مدل زبان را دموکراتیزه می‌کند.

برای توسعه کارآمد هوش‌مصنوعی: اهمیت بهینه‌سازی خطوط لوله پیش‌آموزشی را به جای تکیه بر مقیاس‌گذاری منابع محاسباتی برجسته می‌کند.

برای مطالعات مقیاس‌بندی: نشان می‌دهد که قوانین مقیاس‌بندی در سطوح مختلف منابع قوی هستند و بینش‌هایی را در مورد طراحی مدل کارآمد ارائه می‌دهند.

 

 6. محدودیتها

- 1. محدودیتهای اندازه مدل: مدل "مجموعه" کوچکتر از مدل‌های پیشرفته مانند GPT-3 یا PalM است و ظرفیت آن را برای کارهای خاص محدود می‌کند.

- 2. اندازه مجموعه داده‌ها: آموزش بر روی مجموعه داده‌های کوچکتر به دلیل محدودیتهای زمانی انجام شد که ممکن است بر تعمیم در مقایسه با مدل‌های مقیاس بزرگتر تأثیر بگذارد.

- 3. تنظیم دقیق کار خاص: در حالی که پیشآموزش کارآمد بود، تنظیم دقیق برای کارهای خاص ممکن است همچنان به منابع اضافی نیاز داشته باشد.

 

 7. مسیرهای آینده

- 1. کاوش در معماری‌های دیگر: بررسی کنید که آیا معماری‌های جایگزین (به عنوان مثال، ترانسفورمرهای کارآمد مانند Linformer یا Performer) می‌توانند عملکرد را در تنظیمات محدود افزایش دهند یا خیر.

- 2. گسترش طول زمینه: رویکرد فشرده‌سازی را برای مدل‌هایی که پنجره‌های زمینه طولانی‌تری را بدون افزایش منابع قابل توجه مدیریت می‌کنند، تطبیق دهید.

- 3. آموزش چندوجهی: تکنیکهای بهینهسازی مشابه را برای آموزش مدل‌های چندوجهی (به عنوان مثال، متن + تصویر) در محیطهای محدود اعمال کنید.

- 4. ابزارهای منبع باز: خطوط لوله و اسکریپت های از پیش ساخته شده را برای محققان فراهم می‌کند تا نتایج را به راحتی در GPUهای مصرف کننده تکرار کنند.

 

نتیجهگیری

مطالعه “Cramming” نشان می‌دهد که آموزش مدل‌های زبان رقابتی با حداقل سخت‌افزار با بازنگری خطوط لوله پیش‌آموزشی و بهینه‌سازی برای کارایی امکان‌پذیر است. این کار گامی به سوی دموکراتیک کردن تحقیقات هوش‌مصنوعی با در دسترس ساختن مدل‌سازی زبان با کیفیت بالا برای محققان با منابع محاسباتی محدود است.


 1. [Original Paper on arXiv] (https://arxiv.org/pdf/2212.14034.pdf).

 2. [OpenReview Submission] (https://openreview.net/forum?id=gUL6zYN4Uaf).

 3. [Medium Article Summary] (https://medium.com/ionio-ai/how-to-train-your-language-model-in-a-single-day-with-one-gpu-cramming-0d0fee1a6a5b). 

 4. [Code Repository] (https://github.com/JonasGeiping/cramming).

 

[1] https://medium.com/ionio-ai/how-to-train-your-language-model-in-a-single-day-with-one-gpu-cramming-0d0fee1a6a5b

[2] https://openreview.net/forum?id=gUL6zYN4Uaf

[3] https://openreview.net/forum?id=2snzoozOWH

[4] http://arxiv.org/pdf/2212.14034.pdf

[5] https://arxiv.org/pdf/2212.14034.pdf

[6] https://openreview.net/forum?id=zjKKxDz0PW

[7] https://www.biorxiv.org/content/10.1101/2024.05.14.594108v1.full.pdf

[8] https://www.youtube.com/watch?v=POUGSPZaMsk



[1] masked language modeling

نظرات 0 + ارسال نظر
ایمیل شما بعد از ثبت نمایش داده نخواهد شد