GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف
GML (Graph Machine Learning)

GML (Graph Machine Learning)

یادگیری ماشین گراف

LoRA: انطباق با رتبه پایین مدل‌های زبان بزرگ

LoRA (تطبیق با رتبه پایین) یک تکنیک تنظیم دقیق پارامتری کارآمد است که برای تطبیق مدل‌های زبان بزرگ (LLM) برای کارهای خاص و در عین حال کاهش قابل توجهی نیازهای محاسباتی و حافظه طراحی شده است. LoRA که توسط تحقیقات مایکروسافت معرفی شده است، از تجزیه ماتریس با رتبه پایین برای دستیابی به آموزش کارآمد و انطباق ویژه کار بدون به خطر انداختن عملکرد مدل استفاده می‌کند.

 
 

 1. انگیزه

- چالش‌های تنظیم دقیق کامل: تنظیم دقیق LLM‌هایی مانند GPT-3 (پارامترهای 175B) نیاز به آموزش مجدد همه وزن‌های مدل دارد که از نظر محاسباتی گران و حافظه فشرده است. استقرار چندین نسخه با تنظیم دقیق برای کارهای مختلف به دلیل هزینه های ذخیرهسازی و استنتاج غیرممکن می‌شود.

- اهداف کارایی: LoRA با فریز کردن وزن‌های مدل از پیش آموزش‌دیده و معرفی ماتریس‌های با رتبه پایین قابل آموزش در معماری ترانسفورمر، این چالش‌ها را برطرف می‌کند و تعداد پارامترهای قابل آموزش را تا 10000× و نیاز به حافظه GPU را با ضریب 3 کاهش می‌دهد.

 

 2. چگونه LoRA کار می‌کند

- Core Idea: LoRA لایههای متراکم معماری Transformer را با تزریق ماتریسهای با رتبه پایین قابل آموزش اصلاح می‌کند. این رویکرد بر روی تطبیق تنها زیرمجموعه کوچکی از پارامترها و در عین حال حفظ اکثر وزن‌های از پیش تمرین‌شده تمرکز دارد.

- تجزیه با رتبه پایین: برای هر ماتریس وزن لایه متراکم W، LoRA آن را به دو ماتریس قابل آموزش A و B تجزیه می‌کند، به طوری که:

W' = W + A × B

 اینجا:

 - A: یک ماتریس کوچک با ابعاد r × d که r (رتبه) بسیار کوچکتر از d است.

 - B: یک ماتریس کوچک با ابعاد d × r.

 

فرآیند آموزش

 1. تمام وزنه‌های مدل از قبل آموزش دیده را فریز کنید.

 2. فقط ماتریسهای رتبه پایین A و B را در طول تنظیم دقیق بهینه کنید.

 3. برای استنتاج، به روز رسانی‌های رتبه پایین آموخته شده را با وزن‌های منجمد ترکیب کنید.

 

 3. مزایای LoRA

- 1. کارایی پارامتر: پارامترهای قابل آموزش را به ترتیبی کاهش می‌دهد و امکان تنظیم دقیق سخت‌افزار با محدودیت منابع را فراهم می‌کند.

- 2. بهینهسازی حافظه: به حافظه GPU کمتری در طول آموزش در مقایسه با روش‌های تنظیم دقیق کامل یا مبتنی بر آداپتور نیاز دارد.

- 3. بدون تأخیر اضافی: برخلاف آداپتورها، LoRA هیچ تأخیر استنتاج اضافی را معرفی نمی‌کند زیرا مستقیماً در معماری مدل ادغام می‌شود.

- 4. Task-Specific Adaptation: به ایجاد کارآمد چندین نسخه LLM مخصوص وظایف بدون هزینههای ذخیرهسازی بیش از حد اجازه می‌دهد.

- 5. تطبیقپذیری: در ابتدا برای LLMهایی مانند GPT-3 توسعه یافته بود، LoRA با موفقیت در مدلهای دیگر مانند RoBERTa، DeBERTa و حتی چارچوب‌های تولید تصویر مانند Stable Diffusion اعمال شد.

 

 4. برنامه‌های کاربردی

- 1. پردازش زبان طبیعی (NLP): تنظیم دقیق LLMها برای تجزیه و تحلیل احساسات، پاسخ به سؤال، خلاصه‌سازی و غیره.

- 2. Image Generation: تطبیق مدل‌هایی مانند Stable Diffusion برای کارهای تولید تصویر خاص سبک.

- 3. مدل‌های چندوجهی: گنجاندن LoRA در مدل‌هایی که متن، تصاویر و صدا را به طور همزمان مدیریت می‌کنند.

- 4. دامنه‌های کم منبع: تطبیق کارآمد LLM برای وظایف در زبان‌ها یا دامنه‌هایی با در دسترس بودن داده‌های محدود.

 

 5. معیارهای عملکرد

- LoRA به عملکرد قابل مقایسه با تنظیم دقیق کامل در معیارهایی مانند GLUE و SQuAD دست می‌یابد و در عین حال نیازهای محاسباتی را به شدت کاهش می‌دهد.

- برای GPT-3 (175B)، LoRA پارامترهای قابل آموزش را از میلیاردها به میلیون ها کاهش می‌دهد و در عین حال نتایج با کیفیت بالا را حفظ می‌کند.

 

 6. برنامه‌های افزودنی

QLoRA

یک نوع پیشرفته از LoRA که دارای کوانتیزاسیون 4 بیتی است و مصرف حافظه را کاهش می‌دهد و در عین حال عملکرد قابل مقایسه با مدل‌های دقیق را حفظ می‌کند.

 

 7. جزئیات پیادهسازی

- 1. چارچوب‌ها:

 - LoRA با مدل های PyTorch از طریق بسته loralib یکپارچه شده است.

 - سازگار با کتابخانه Hugging Face Transformers برای استقرار بدون درز.

- 2. فراپارامترها:

 - متغیرهای کلیدی عبارتند از:

 - Rank (r): ابعاد ماتریسهای با رتبه پایین را کنترل می‌کند.

 - ضریب مقیاس (α): تأثیر به‌روزرسانی‌های رتبه پایین را بر وزن‌های منجمد تنظیم می‌کند.

 

 8. محدودیتها

- 1. وابستگی به مدل‌های از پیش آموزش دیده: LoRA به مدل‌های از پیش آموزش دیده با کیفیت بالا به عنوان پایه نیاز دارد.

- 2. تنظیم دقیق کار خاص: در حالی که کارآمد است، ممکن است بدون تنظیم اضافی در بین وظایف بسیار متفاوت تعمیم یابد.

 

 9. مسیرهای آینده

- 1. گسترش برنامه‌های کاربردی به چارچوب‌های چند وجهی و سیستمهای زمان واقعی.

- 2. ترکیب LoRA با تکنیکهای تمرینی پراکنده برای افزایش بهره‌وری.

- 3. توسعه معیارهای استاندارد شده برای ارزیابی روش‌های تنظیم دقیق پارامتر کارآمد.

 

نتیجهگیری

LoRA نشان دهنده یک تغییر پارادایم در تنظیم دقیق مدل‌های زبان بزرگ با ایجاد امکان سازگاری با منابع کارآمد بدون به خطر انداختن عملکرد است. توانایی آن در کاهش هزینههای محاسباتی در عین حفظ دقت ویژه کار، آن را به ابزاری ارزشمند برای دموکراتیک کردن دسترسی به سیستم‌های هوش‌مصنوعی قدرتمند تبدیل می‌کند.


 1. [LoRA Paper on OpenReview] (https://openreview.net/forum?id=nZeVKeeFYf9)[1]. 

 2. [Microsoft Research Publication] (https://www.microsoft.com/en-us/research/publication/lora-low-rank-adaptation-of-large-language-models/) [2]. 

 3. [Toloka Blog on LoRA Applications] (https://toloka.ai/blog/lora-models/) [3]. 

 4. [Nexla Implementation Guide] (https://nexla.com/enterprise-ai/low-rank-adaptation-of-large-language-models/) [4]. 

 5. [Aporia Blog on LoRA] (https://www.aporia.com/learn/low-rank-adaptation-lora/) [5].

 

[1] https://openreview.net/forum?id=nZeVKeeFYf9

[2] https://www.microsoft.com/en-us/research/publication/lora-low-rank-adaptation-of-large-language-models/

[3] https://toloka.ai/blog/lora-models/

[4] https://nexla.com/enterprise-ai/low-rank-adaptation-of-large-language-models/

[5] https://www.aporia.com/learn/low-rank-adaptation-lora/

[6] https://www.youtube.com/watch?v=DhRoTONcyZE

[7] https://towardsdatascience.com/understanding-lora-low-rank-adaptation-for-finetuning-large-models-936bce1a07c6?gi=d04d5b069f21

[8] https://arxiv.org/html/2403.16187v1

نظرات 0 + ارسال نظر
ایمیل شما بعد از ثبت نمایش داده نخواهد شد