MATLAB متلب

تست های آماری دسته بندی کننده ها

در راستای مقایسه بازدهی الگوریتم پیشنهادی با دیگر الگوریتم های مشهور، تست های آماری مانند paired t-test، Wilcoxon و Friedman بکار گرفته شده اند. تست های آماری t-test و Wilcoxon برای مقایسه دو کلاسه بند بر روی مجموعه ای از داده ها بکار می روند، در حالیکه تست آماری Friedman با post-hoc متناظر برای مقایسه […]

تست های آماری دسته بندی کننده ها بیشتر بخوانید »

الگوریتم AdaBoost

الگوریتم AdaBoost، یک روش یادگیری جمعی است و معروف‌ترین الگوریتم از خانواده الگوریتم­های Boosting است که توسطFreund  و Schapire [24] ارائه شده است. در الگوریتم های یادگیری جمعی، یک نمونه توسط چندین کلاسه بند مختلف کلاسه بندی می شود و نتایج کلاسه بندی ها به شکل هوشمندانه ای با یکدیگر ترکیب شده و نتیجه نهایی

الگوریتم AdaBoost بیشتر بخوانید »

5-2-1. کلاسه¬بند درخت تصمیم C4.5

کلاسه­بند C4.5 [22]، نوعی درخت تصمیم بوده که توسط Ross Quinlan در سال 1993 ارائه شده است. این الگوریتم نوع ارتقا یافته الگوریتم قبلی Quinlan یعنی ID3 بوده که برای کلاسه­بندی مفید است. C4.5 با نمونه های آموزشی، یک درخت تصمیم همانند ID3 با استفاده از مفاهیم تئوری اطلاعات[1] [53] می­سازد و از رابطه جداسازیِ[2]

5-2-1. کلاسه¬بند درخت تصمیم C4.5 بیشتر بخوانید »

مروري اجمالي بر الگوريتم ژنتيك

الگوریتم ژنتیک روشی است برای بهینه سازی مسائل محدود و نامحدود و بر اساس فلسفه انتخاب اصلح در طبیعت بنا شده است. الگوریتم ژنتیک به صورت تکراری جمعیتی از راه حل ها را اصلاح می کند. در هر مرحله ، الگوریتم ژنتیک تعدادی از افراد را به صورت تصادفی از جمعیت کنونی انتخاب می کند

مروري اجمالي بر الگوريتم ژنتيك بیشتر بخوانید »

معیار‌های ارزیابی الگوریتم‌های چندکلاسه

ارزیابی دقت الگوریتم‌های چندکلاسه، به علت تعداد زیاد مجموعه‌ داده‌های مورد آزمایش و تعداد متنوع روش‌های اعمال شده و همچنین خصوصیات مجموعه داد‌ه‌ها که هم شامل داده‌های متوازن و هم داده‌های نامتوازن می‌شود ، نیاز به اتخاذ روش‌های پیچیده‌ای دارد. در حوزه‌ مسائل چندکلاسه، به طور مرسوم، تنها دقت بدست آمده از دسته‌بندی به عنوان

معیار‌های ارزیابی الگوریتم‌های چندکلاسه بیشتر بخوانید »

دسته‌بندی‌کننده‌های سريال همزمان

در بسیاری از مواقع، یک دسته‌بندی‌کننده سريال تنها نمی تواند همه تغییر‌پذیری‌های[1] ممکن درون‌کلاسی[2] را برای کلاس هدف مدیریت کند [49]. در نتیجه، عمومیت[3] دسته‌بندی‌کننده سريال در مواجهه با مجموعه داده‌های پیچیده، به خطر می‌افتد. برای رفع این مشکل، یکی از راه حل‌های موجود، شکستن مساله به زیر مساله های کوچک‌تر است. همان‌گونه که قبلا ذکر

دسته‌بندی‌کننده‌های سريال همزمان بیشتر بخوانید »

روش AdaBoost.ECC

الگوریتم AdaBoost.ECC، از بسیاری جهات شبیه AdaBoost.OC است. تفاوت اصلی این دو الگوریتم این است که، AdaBoost.ECC ارزش  را بر اساس شبه خطا در هر دور از اجرای الگوریتم، محاسبه نمی‌کند؛ بلکه  و  را که به ترتیب نشان‌دهنده رای‌های مثبت و منفی فرضیه  در مساله دوکلاسه است را در هر دور محاسبه می‌کند. بر اساس

روش AdaBoost.ECC بیشتر بخوانید »

روش AdaBoost.OC

الگوریتم‌های AdaBoost.OC و AdaBoost.ECC، قوانین روش ECOC را با یادگیری جمعی تقویتی ادغام کرده و به کمک این استراتژی، توانسته‌اند بر معایت روش AdaBoost.M2 فائق آیند. روش‌های یادگیری تقویتی مبتنی بر ECOC، به طور تکرار شونده، ستون‌های ماتریس کدگذاری را تولید می‌کنند به طوری که اغتشاش[1] میان کلاس‌ها در هر دور اجرای الگوریتم تقویتی، کاهش

روش AdaBoost.OC بیشتر بخوانید »

تکنیک های تجزیه کلاسی در یادگیری ماشین

رایج‌ترین تکنیک‌های تجزیه کلاسی، روش‌های یکی-در مقابل-یکی[1] (OAO) و یکی-در مقابل-همه[2] (OAA) است [27,28]. [1] One-against-one [2] One-against-all یکی-در مقابل-همه(OAA) روش یکی-در مقابل-همه، k دسته بندی کننده را برای یک مساله k–کلاسه می‌سازد. هر دسته‌بندی‌کننده برای شناختن یک کلاس در مقابل سایر کلاس‌ها آموزش داده می‌شود. در زمان بازیابی[1]، خروجی ایده آل آن است که

تکنیک های تجزیه کلاسی در یادگیری ماشین بیشتر بخوانید »

مسائل چند‌ کلاسه در یادگیری ماشین

در دو دهه اخیر شاهد ازدیاد ارایه گونه‌های مختلف از الگوریتم AdaBoost هستیم که تعدادی از آنها عبارتند از: الگوریتمRealBoost  [22] که خروجی یادگیر‌ها را بر اساس درجه اطمینان آنها بسط می‌دهد، GentelAdaBoost [23] که در مقابل داده‌های پرت[1] مقاوم‌تر است، [24]FloatBoost که با هدف کم کردن افزونگی[2] در دسته‌بندی‌کننده‌ها از طریق هرس[3] ارایه شد،

مسائل چند‌ کلاسه در یادگیری ماشین بیشتر بخوانید »