ادغام گرافهای دانش (KGs) و مدلهای زبان بزرگ (LLMs) یک همافزایی دگرگونکننده در هوش مصنوعی را نشان میدهد که دادههای رابطهای ساختیافته را با قابلیتهای زبان مولد ترکیب میکند. در زیر ترکیبی از رویکردها، برنامهها و جهتگیریهای آینده ارائهشده ارائه شده است:
1. رویکردهای یکپارچهسازی
الف) Retrieval-Augmented Generation (RAG)
- مکانیسم: LLMها با استفاده از واقعیتهای بازیابی شده از KGها، پاسخها را تولید میکنند و اطمینان حاصل میکنند که خروجیها در دادههای تأیید شده پایهگذاری شدهاند. مثال: یک چت بات قانونی از RAG برای بیرون کشیدن قوانین از یک KG قانونی برای تهیه خلاصه موارد دقیق استفاده میکند [1][6][9].
- مزایا: با لنگر انداختن LLMها به دانش ساختاریافته، توهمات را کاهش میدهد. ارتباط و ویژگی را برای جستارهای خاص دامنه (به عنوان مثال، تشخیص پزشکی) افزایش میدهد [1][2][8].
ب) مدلهای زبان افزوده شده دانش
- مکانیسم: KGها در طول آموزش یا تنظیم دقیق در LLM تعبیه میشوند و دانش خاص دامنه را القا میکنند (به عنوان مثال، اصطلاحات پزشکی). مثال: KG-BERT از سه KG برای بهبود تشخیص موجودیت و پیشبینی پیوند استفاده میکند [6][8].
- مزایا: مهارت LLM را در حوزههای تخصصی (به عنوان مثال، امور مالی، مراقبتهای بهداشتی) بهبود میبخشد. به روز رسانیهای پویا را فعال میکند تا دانش در حال تکامل را منعکس کند [4][6].
ج) مدلهای هیبریدی (همکاری LLM-KG)
- مکانیسم: تعامل دو جهته: KGها خروجیهای LLM را تایید میکنند، در حالی که LLMها KGها را پر یا اصلاح میکنند. مثال: یک LLM توضیحات محصول را تولید میکند که برای دقت در مقابل یک KG خرده فروشی بررسی میشود [6][9].
- مزایا: انعطافپذیری مولد را با استدلال ساختاری متعادل میکند. پشتیبانی از اعتبارسنجی بلادرنگ و تصحیح خطا [6][8].
شکل 1: گردش کار تولید متن LLM.