-
یادگیری ماشین گراف
جمعه 2 آذر 1403 14:27
در این پست وبلاگ، اصول یادگیری ماشین گراف را پوشش میدهیم . ما ابتدا مطالعه میکنیم که گراف چیست، چرا از آنها استفاده میشود و چگونه آنها را به بهترین شکل نشان دهیم. سپس به طور مختصر نحوه یادگیری بر روی گرافها، از روشهای Pre-Neural (کاوش در ویژگیهای گراف به طور همزمان) تا آنچه که معمولاً شبکههای عصبی گراف نامیده...
-
الگوریتمهای شبکه عصبی – نحوه آموزش ANN برای یادگیری ماشینی
جمعه 2 آذر 1403 14:23
1. هدف در این آموزش یادگیری ماشینی، به برترین الگوریتمهای شبکه عصبی خواهیم پرداخت. از این الگوریتمها برای آموزش شبکه عصبی مصنوعی استفاده میشود. این وبلاگ به شما آموزش عمیقی از گرادیان نزول، الگوریتمهای تکاملی و الگوریتم ژنتیک در شبکه عصبی ارائه میدهد. 2. الگوریتم های شبکه عصبی برتر یادگیری شبکه عصبی بر اساس...
-
تشخیص نفوذ با دستهبندهای یادگیری عمیق
پنجشنبه 1 آذر 1403 06:21
رویکرد هم افزایی خوشهبندی احتمالی و تخصص انسانی برای کاهش هشدارهای کاذب چکیده : سیستمهای تشخیص نفوذ [1] ( IDS ) تعداد فزایندهای از پیشنهادات توسط محققانی که از یادگیری عمیق ( DL ) برای محافظت از شبکههای حیاتی استفاده میکنند، دیدهاند. با این حال، آنها اغلب از نرخ هشدار نادرست بالا رنج میبرند، که چالشی قابل توجه...
-
مقدمهای بر قوانین یادگیری در شبکه عصبی
پنجشنبه 1 آذر 1403 06:18
قانون یادگیری یک روش یا یک منطق ریاضی است. این به یک شبکه عصبی کمک میکند تا از شرایط موجود درس گرفته و عملکرد خود را بهبود بخشد. این یک فرآیند تکراری است. در این آموزش یادگیری ماشینی قصد داریم به قوانین یادگیری در شبکه عصبی بپردازیم. قانون یادگیری هبی، قانون یادگیری پرسپترون، قانون یادگیری دلتا، قانون یادگیری...
-
توجه برای ترجمه ماشین عصبی
چهارشنبه 30 آبان 1403 07:32
[1] ( NMT ) 1. مقدمه در این وبلاگ سعی دارم تا فرآیند کلی ساخت یک مدل توجه ترجمه ماشین عصبی ( NMT ) را توضیح دهم. ابتدا، در بخش 2، من در مورد آمادهسازی دادهها برای ساخت یک مدل NMT صحبت میکنم. من با توجه به ریاضیات مدل NMT نرفتهام - در بخش 2 به وبلاگ قبلی خود مراجعه میکنم تا مروری بر مراحل تهیه مدل NMT با توجه...
-
لاما 2 | ابزارهای هوش مصنوعی
دوشنبه 28 آبان 1403 07:40
۱. مقدمه در این مقاله، ابتدا سعی کردهام یادداشتهای خود را در مورد مدل Llama 2 که (ژوئیه 2023) منتشر شده است (Large Language Model Meta AI) ادغام کنم. مطالب مربوط به این موضوع در بخشهای 2، 3 و 4 مورد بحث قرار گرفته است . بخش 5 برخی از جزئیات را در مورد بسته HuggingFace پیشرفته با آموزش خودکار ارائه میکند که...
-
چالشهای استقرار مدل یادگیری ماشین: آیا خطای مجموعه تست میانگین پایین کافی است؟
یکشنبه 27 آبان 1403 03:49
مدل یادگیری ماشین شما در مجموعه آزمایشی به خوبی عمل میکند – کار مهندس یادگیری ماشین ممکن است بسیار سادهتر باشد اگر فقط به اندازهای باشد که خطای مجموعه تست متوسط پایین را دریافت کند، اما اینطور نیست! در وبلاگ خود چند روز پیش، در مورد مفاهیم Data Drift و Concept Drift صحبت کردهام، اما چالشهای دیگری نیز وجود دارد...
-
چالشهای استقرار مدل یادگیری ماشین: نمونههای رانش داده و رانش مفهومی
یکشنبه 27 آبان 1403 03:39
مدل یادگیری ماشین شما در مجموعه آموزشی به خوبی عمل میکند، سپس در مجموعه آزمایشی نیز به خوبی عمل میکند. وقت جشن گرفتن است. اما هنوز همه چیز تمام نشده است. استقرار مدل یادگیری ماشینی چالشهای زیادی دارد. صحبت در مورد چالشهای آماری شامل Data Drift و Concept Drift است. اجازه میدهد از طریق مثالها را درک کنیم. 1) فرض...
-
بینشی از مدل درخت تصمیمگیری
یکشنبه 27 آبان 1403 03:25
در وبلاگ خود با عنوان "قدرت یادگیری ضعیف"، من در مورد الگوریتمهای مختلف یادگیری ماشین بر اساس مفهوم "تقویت [1] " یعنی ترکیب چندین "یادگیر ضعیف [2] " برای تشکیل یک الگوریتم یادگیری قوی صحبت کردهام. https://concepts-define.blogsky.com/1403/08/27/post-38/ قدرت-یادگیری-ضعیف برخی از این...
-
تشخیص نفوذ با دستهبندهای یادگیری عمیق
شنبه 26 آبان 1403 02:24
سیستمهای تشخیص نفوذ [1] ( IDS ) تعداد فزایندهای از پیشنهادات توسط محققانی که از یادگیری عمیق ( DL ) برای محافظت از شبکههای حیاتی استفاده میکنند، دیدهاند. با این حال، آنها اغلب از نرخ هشدار نادرست بالا رنج میبرند، که چالشی قابل توجه برای استقرار آنها در شبکههای حیاتی است. این مقاله یک چارچوب جامع انسان و ماشین...
-
افزودن بلوک در معماری شبکه عصبی ترانسفورمر
شنبه 26 آبان 1403 02:22
۱. مقدمه این ادامه سری وبلاگهای من در مورد مدلهای زبان است. در این مجموعه، من با جزئیات قابل توجهی از آموزش ChatGPT ، تکامل مدلهای زبان، موارد استفاده از چارچوب LangChain و مهمتر از همه Deep Dive در هر مؤلفه/بلوک معماری شبکه عصبی ترانسفورمر صحبت کردهام. این مقاله درباره بلوک «افزودن و هنجار» در معماری شبکه عصبی...
-
توجه چند راس در معماری شبکه عصبی ترانسفورمر
شنبه 26 آبان 1403 02:20
این ادامه سری وبلاگهای من در مدلهای زبان بزرگ است - در این مقاله قصد دارم در مورد مکانیسم توجه چند راس در معماری شبکه عصبی ترانسفورمر صحبت کنم و اجزای ریاضی ضروری را کدنویسی کنم. این مقاله به شرح زیر تنظیم شده است : · در بخش 2، من در مورد عملکرد داخلی ترانسفورمر با تأکید دقیق بر توجه چند راس صحبت میکنم . · در بخش...
-
رمزگذاریهای موقعیتی معماری شبکه عصبی ترانسفورمر
شنبه 26 آبان 1403 02:18
این ادامه سری وبلاگ های من در مورد مدل های زبان است. این وبلاگ قرار است در مورد رمزگذاری های موقعیتی با نام مستعار تعبیه های موقعیتی معماری شبکه عصبی ترانسفورماتور باشد. این مقاله به شرح زیر تنظیم شده است. اولاً، من سعی کردم جریان بحث در مورد مدلهای زبان را خلاصه کنم، برخی از مفاهیم مهمی که تاکنون در مجموعه...
-
LangChain - مفاهیم اساسی
شنبه 19 آبان 1403 15:42
1. مقدمه من در حال نوشتن یک سری وبلاگ در مورد عملکرد مدلهای زبان بزرگ، آموزش ChatGPT ، کار کردن با Transformers بودهام و تمام یادداشتهایم را میتوان در مقالات زیر پیدا کرد: ۱) ChatGPT چیست؟ https://ali-rouhanifar.blogsky.com/ 1403/08/18 /post- 62 /ChatGPT- چیست؟ ۲) ChatGPT - قسمت 2...
-
Self Attention در معماری شبکه عصبی ترانسفورمر
شنبه 19 آبان 1403 08:17
1. مقدمه این سومین وبلاگ از مجموعه در حال انجام من در رابطه با معماری شبکه عصبی ترانسفورمر است - هدف از کل مجموعه، ابهامزدایی از واحدها / اجزای مختلف معماری شبکه عصبی ترانسفورمر به منظور ایجاد درک دقیق و شهودی از کلیت کار ترانسفورمر است. 2 مقاله اول مربوط به این سری، درک عمیقتری از اصول بنیادی یادگیری عمیق و تکامل...
-
تکامل مدلهای زبانی
جمعه 18 آبان 1403 09:20
1. مقدمه در مورد سری بعدی وبلاگ هایم که شروع می شود از: · اصول اساسی یادگیری عمیق · تکامل مدل های زبانی و سپس هر وبلاگ بعدی وارد هر واحد / جزء معماری ترانسفورماتور از جمله: · تعبیه ورودی · تعبیه های موقعیتی · توجه به خود و توجه چند راس · نرمال سازی لایه ها · از اتصالات و سایر واحدهایی که معماری...
-
ChatGPT چیست؟
جمعه 18 آبان 1403 09:12
1. مقدمه ChatGPT چیست؟ ChatGPT یک مدل زبان است که از کاربر درخواست می کند و یک پاسخ متنی ایجاد می کند. پاسخ های ایجاد شده توسط ChatGPT واقع بینانه ترین ربات های چت موجود در جهان تا به امروز است. درک ChatGPT مستلزم درک مفاهیم زیر است: · GPT یعنی – ترانسفورماتورهای از پیش آموزش دیده مولد [1] که مدل های زبانی...
-
یادگیری عمیق در گرافها
چهارشنبه 2 آبان 1403 08:40
یادگیری عمیق بر روی گراف ها، همچنین به عنوان یادگیری عمیق هندسی (GDL) [1]، یادگیری بازنمایی گراف ( GRL )، یا سوگیریهای استقرایی رابطهای، اخیراً به یکی از داغترین موضوعات در یادگیری ماشین تبدیل شده است. در حالی که کارهای اولیه در زمینه یادگیری گراف حداقل به یک دهه قبل برمیگردد [۳، ۲]، بدون شک این پیشرفت چند سال...
-
مغز انسان چگونه صحنههای طبیعی را درک میکند
یکشنبه 4 شهریور 1403 20:03
مرز بین دانشهای هوش مصنوعی و هوش زیستی بیش از هر زمان دیگری در هم آمیخته شدهاند. از طرفی اصول محاسبات عصبی الهامبخش ماشینهای هوشمند جدید شده است؛ این ماشینها نیز به نوبه خود باعث پیشرفت فهم ما از عملکرد مغز شدهاند. این پروژه در راستای تشویق تبادل نظر و همکاری بین محققان دو حوزه هوش مصنوعی و هوش زیستی طراحی شده...
-
استراتژیهای کاوش/ بهرهبرداری برای سیستم دستهبند یادگیری
شنبه 18 آذر 1402 08:59
هنگام تعیین اقدامات برای اجرا، یادگیرندگان تقویتی دائماً با تصمیم بهرهبرداری از دانش موجود یا بررسی گزینههای جدید مواجه هستند که هزینههای کوتاه مدت را به خطر میاندازد اما به طور بالقوه عملکرد را در بلندمدت بهبود میبخشد. این مقاله چهار استراتژی کاوش/ بهرهبرداری موجود برای سیستم دستهبند یادگیری XCS را توصیف و به...
-
زبان: گرامر و طاقچه
سهشنبه 14 آذر 1402 17:35
گرامر و برنامههای کامپیوتری ارتباط نزدیکی با هم دارند. هم گرامرها و هم برنامهها راهحل مسائل پیچیده با اجرای دنبالهای از عملیات ابتدایی را تولید میکنند. در دهه 1830، چارلز بابیج یک کامپیوتر قابل برنامهریزی به نام Difference Engine با ترکیب دستگاههای مکانیکی برای جمع و ضرب طراحی نمود. کامپیوترهای امروزی که در همه...
-
تکامل طاقچهها - نگاه اول
سهشنبه 14 آذر 1402 11:00
ایده طاقچه در مطالعه اکوسیستم ها معمولاً مفهوم طاقچه محدود به نوع خاصی از عامل، معمولاً یک بخش خاص است. طاقچه با جریان مداوم منابع "قدرت [1] "، بسیار شبیه گردابی در جریانی سریع میشود . اصطلاح به همین شکل است در عباراتی مانند "طاقچه بازار [2] " استفاده می شود. با این حال، سودمند است که در یک...
-
قضیه طرحواره GA هالند
سهشنبه 14 آذر 1402 05:13
· هدف - ارائه یک مدل رسمی برای اثربخشی فرآیند جستجوی GA . · در ادامه، ابتدا از طریق چارچوبی که توسط هالند [۱] رسمی شده است و توسط گلدبرگ [2] محبوبیت یافت به مسئله نزدیک می شویم. · این بر ارائه مدلی برای انتظار بقای طرحواره متمرکز است، جایی که این طبیعتاً خود یک محدودیت را نشان می دهد. · سپس به بررسی اشکالات بیشتر...
-
قضیه طرحواره هالند
دوشنبه 13 آذر 1402 17:07
قضیه طرحواره هلند که قضیه بنیادی الگوریتمهای ژنتیک [1] نیز نامیده میشود [۱]، نابرابری است که از دانهبندی درشت [2] معادلهای برای دینامیک تکاملی [3] ناشی میشود. قضیه طرحواره میگوید که طرحوارههای کوتاه و مرتبه پایین [4] با برازندگی بالاتر از متوسط [5] به طور تصاعدی در فرکانس در نسلهای متوالی افزایش مییابد....
-
جان هنری هالند
دوشنبه 13 آذر 1402 16:51
جان هنری هالند (زاده ۲ فوریه ۱۹۲۹ – درگذشته ۹ اوت ۲۰۱۵) دانشمند آمریکایی و استاد روانشناسی و مهندسی برق و علوم کامپیوتر در دانشگاه میشیگان، آن آربور بود. او در چیزی که به الگوریتم ژنتیک معروف شد، پیشگام بود . هالند در مؤسسه فناوری ماساچوست در رشته فیزیک تحصیل کرد و مدرک B.S. سپس در سال 1950 در رشته ریاضیات در دانشگاه...
-
معیارها در سیستمهای دستهبند یادگیری
شنبه 3 تیر 1402 04:35
سیستمهای دستهبند یادگیری (LCS) نوعی از روشهای یادگیری ماشینی مبتنی بر قانون هستند که یک جزء کشف را با یک جزء یادگیری ترکیب میکنند [۱]. هدف LCS شناسایی مجموعهای از قوانین وابسته به زمینه است که به طور جمعی دانش را به صورت تکهای ذخیره و به کار میبرند تا پیش بینی کنند [۱]. مؤلفه یادگیری LCS میتواند یادگیری تحت...
-
مزایای استفاده از سیستمهای دستهبند یادگیری
شنبه 3 تیر 1402 04:33
سیستم های دسته بند یادگیری (LCS) دارای چندین مزیت هستند، از جمله: تطبیقی : LCS ها می توانند در مورد یادگیری آنلاین به یک محیط در حال تغییر عادت کنند [۱]. بدون مدل : آنها مفروضات محدودی در مورد داده ها می کنند، به این معنی که نیازی به مدل یا ساختار خاصی برای تحمیل داده ها ندارند [۲] راهحلهای قابل تفسیر :...
-
چند الگوریتم یادگیری خاص ارائه شده توسط sknet برای شبکههای پیچیده
جمعه 2 تیر 1402 09:34
کتابخانه sknet الگوریتمهای یادگیری را برای شبکههای پیچیده فراهم میکند [۱-۲-۳-۴-۵]. برخی از الگوریتمهای یادگیری خاص ارائه شده توسط sknet برای شبکههای پیچیده عبارتند از: Graph Convolutional Networks (GCN) : نوعی شبکه عصبی که بر روی نمودارها کار میکند و میتواند برای کارهایی مانند طبقهبندی گرهها، پیش بینی پیوندها...
-
یادگیری ماشینی مبتنی بر قانون
پنجشنبه 1 تیر 1402 08:35
خلاصه سیستمهای طبقهبندی کننده یادگیری (LCS) یادگیری ماشین را با محاسبات تکاملی و سایر روشهای اکتشافی ترکیب میکنند تا یک سیستم تطبیقی ایجاد کنند که حل یک مشکل خاص را یاد میگیرد. LCS ها به طور نزدیک با همان مولفه های الگوریتم ژنتیک (GA) که بیشتر مورد استفاده قرار می گیرد، مرتبط هستند و معمولاً آنها را جذب می...
-
محدودیتها در سیستمهای دستهبند یادگیری
پنجشنبه 1 تیر 1402 08:27
سیستم های دسته بند یادگیری (LCS) نوعی از روش های یادگیری ماشینی مبتنی بر قانون هستند که یک جزء کشف را با یک جزء یادگیری ترکیب می کنند [۱]. هدف LCS شناسایی مجموعه ای از قوانین وابسته به زمینه است که به طور جمعی دانش را به صورت تکه ای ذخیره و به کار می برند تا پیش بینی کنند [۱]. در اینجا برخی از محدودیت ...