هوشمصنوعی قابل درک[1] (CAI) شکاف بین سیستمهای پیچیده هوشمصنوعی و درک انسان را به ویژه از طریق ادغام گرافهای دانش (KGs) پر میکند. KGها با سازماندهی دادهها در ساختارهای بهم پیوسته و غنی از نظر معنایی، شفافیت و اعتماد را در تصمیمگیری هوشمصنوعی افزایش میدهند. این نظرسنجی پیشرفتها، روشها و کاربردهای CAI را در KG ترکیب میکند و پتانسیل تحولآفرین آنها را در صنایع برجسته میکند.
1. تعریف هوشمصنوعی قابل فهم (CAI)
CAI شامل دو رویکرد مکمل است:
- هوشمصنوعی قابل توضیح (XAI): بر توضیحات پسهک تصمیمات هوشمصنوعی تمرکز میکند (به عنوان مثال، برجسته کردن گرههای تأثیرگذار در تشخیص تقلب KG) [1][5].
- یادگیری ماشینی قابل تفسیر[2] (IML): مدلهای ذاتاً شفاف را طراحی میکند (مثلاً درختهای تصمیم با ویژگیهای مشتق از KG) [1][2].
KGها با ساختاردهی دانش در قالبهای قابل خواندن توسط انسان و ماشین، به عنوان پایهای برای CAI عمل میکنند و این امکان را فراهم میکنند:
- زمینهسازی متنی: پیوند خروجیهای هوشمصنوعی به روابط ساختاریافته (به عنوان مثال، تعاملات دارو و بیماری در KGs مراقبتهای بهداشتی) [3].
- استدلال پویا: ردیابی مسیرهای تصمیم از طریق پیمایش گراف [6].
2. دستهبندی CAI بر روی گرافهای دانش
یک دستهبندی یکپارچه روشهای CAI را بر اساس چهار بعد دستهبندی میکند [1][2][5]:
- 1. بازنمایی: نمادین (استدلال مبتنی بر قاعده) در مقابل زیر نمادین (مدلهای مبتنی بر تعبیه).
- 2. وظیفه: پیشبینی پیوند، دستهبندی گره، یا استدلال در سطح گراف.
- 3. روشهای اساسی:
- IML: مدلهای شفاف (درخت تصمیم، رگرسیون خطی) با ویژگیهای KG.
- XAI: تکنیکهای پسا هوک (مکانیسمهای توجه، نقشههای برجسته گراف).
- 4. نوع قابل درک: سراسری (رفتار در سطح مدل) در مقابل محلی (توضیحات پیش بینی فردی).
مثال: در مراقبتهای بهداشتی، یک GNN آموزش دیده بر روی یک KG پزشکی ممکن است از وزنههای توجه (XAI) برای برجسته کردن روابط علائم-بیماری موثر بر تشخیص استفاده کند [4][6].
3. رویکردهای فنی
الف توضیحات پیش مدل
- مهندسی ویژگی KG: استخراج ویژگیهای قابل تفسیر (به عنوان مثال، مرکزیت گره، نقوش زیرگراف) برای آموزش مدلهای IML مانند درختهای تصمیم [4].
- وضوح موجودیت: رفع ابهامات (به عنوان مثال، تمایز "جگوار" به عنوان حیوان در مقابل برند خودرو) برای بهبود قابلیت اطمینان مدل [3].
ب تفسیرپذیری در مدل
- شبکههای عصبی گراف (GNN): انتشار ارتباط لایهای[3] (LRP) گرهها/لبههای تأثیرگذار را در پیشبینیهای مبتنی بر KG شناسایی میکند [6].
- مدلهای ترکیبی: تعبیههای KG را با قوانین نمادین برای استدلال شفاف ترکیب کنید (به عنوان مثال، کشف تقلب در KGهای مالی) [4].
ج. توضیحات پس مدل
- توضیحات مبتنی بر مسیر: منطق تصمیمگیری را از طریق مسیرهای KG (به عنوان مثال، تداخلات دارویی در مراقبت دارویی) ردیابی کنید [6].
- تولید زبان طبیعی: LLMها توضیحات مشتق شده از KG را به متن کاربر پسند تبدیل میکنند (به عنوان مثال، خلاصه کردن معیارهای تشخیصی) [3].
4. برنامههای کاربردی
- 1. مراقبتهای بهداشتی:
* کشف دارو: KGها ژنها، پروتئینها و بیماریها را برای توضیح نامزدهای دارویی پیش بینی شده توسط GNN پیوند میدهند [3].
* تشخیص: مدلهای IML علائم بیمار را به مسیرهای درمانی مبتنی بر KG ترسیم میکنند [4].
- 2. امور مالی:
* تشخیص تقلب: روشهای XAI الگوهای تراکنش را در KGهای مالی نشان میدهند و به انطباق با مقررات کمک میکنند [3].
- 3. سیستمهای توصیه:
* خرده فروشی: IML بهبود یافته با KG توصیههای شفاف محصول را ارائه میدهد (به عنوان مثال، پیوند دادن تنظیمات برگزیده کاربر به ویژگیهای محصول) [4].
5. چالشها
- 1. یکپارچهسازی دانش پویا: به روز رسانی KGها در زمان واقعی با حفظ قابلیت توضیح (به عنوان مثال، جریان دادههای اینترنت اشیا) [3].
- 2. مقیاسپذیری: متعادل کردن کارایی محاسباتی با قابلیت تفسیر در KGهای میلیارد لبه [1].
- 3. معیارهای ارزیابی: فقدان معیارهای استاندارد شده برای کیفیت توضیح (به عنوان مثال، وفاداری، قابل قبول بودن) [5].
6. مسیرهای آینده
- 1. استدلال علّی: ادغام گرافهای علی با KGها برای تشخیص همبستگی از علیت [1].
- 2. CAI Cross-Modal: یکپارچهسازی KGها با متن، تصاویر و دادههای حسگر برای توضیحات چندوجهی [3].
- 3. انطباق با مقررات: توسعه چارچوبهایی برای ممیزی سیستم های هوشمصنوعی مبتنی بر KG برای عدالت و شفافیت [5].
نتیجهگیری
CAI در KGها شفافیت هوشمصنوعی را تغییر میدهد و کاربران را قادر میسازد تا به تصمیمات خودکار اعتماد کنند و آنها را اصلاح کنند. با متحد کردن XAI و IML تحت چارچوبهای دانش ساختاریافته، صنایع از مراقبتهای بهداشتی گرفته تا امور مالی، سیستمهای هوشمصنوعی ایمنتر و پاسخگوتر را باز میکنند. پیشرفتهای آینده در استدلال علّی، ادغام چندوجهی، و استانداردهای نظارتی، KGها را بهعنوان ستون فقرات هوش مصنوعی قابل درک بیشتر تقویت خواهد کرد.
منابع: [1] دانشگاه بامبرگ; BMW Group (2024) [2] AI-Scholar Tech (2024) [3] PingCap (2025) [4] بررسی سیستماتیک Sagepub (2024) [5]SSRN Survey (2022) [6] کتابخانه دیجیتال ACM (2023):
[1] https://chatpaper.com/chatpaper/pt/paper/12657
[2] https://ai-scholar.tech/en/articles/survey/AI-Knowledge-Graphs
[3] https://www.pingcap.com/article/knowledge-graph-use-cases-2025/
[4] https://journals.sagepub.com/doi/full/10.1177/01655515221112844
[5] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4203794
[6] https://dl.acm.org/doi/10.1016/j.websem.2023.100806
[7] https://ouci.dntb.gov.ua/en/works/4awbdGM9/
[9] https://www.aimodels.fyi/papers/arxiv/comprehensible-artificial-intelligence-knowledge-graphs-survey
[10] https://www.pingcap.com/article/machine-learning-knowledge-graphs-2025/