آموزش

مبانی فیلترینگ اشتراکی

فیلترینگ اشتراکی یکی از بهترین راهکارها در سیستم­های پیشنهادگر می­باشد. این روش به خاطر استفاده­اش در سایت­های تجارت الکترونیک مانند  AMAZOONو NETFLIX به خوبی شناخته شده است. این متد کاربرانی که علائق­شان شبیه به کاربر فعال می­باشند را پیدا کرده و از این طریق پیشنهادات را به او ارائه می­دهد. یعنی فرض بر این است […]

مبانی فیلترینگ اشتراکی بیشتر بخوانید »

تست آماری فریدمن

تست فریدمن [52]، یک تست نا پارامتری­ است[1]. این تست الگوریتم­ های گوناگون را روی هر مجموعه داده به صورت جداگانه، رتبه ­بندی می­کند. بهترین الگوریتم رتبه یک، دومین بهترین الگوریتم، رتبه دو و به همین ترتیب الی آخر. در موارد مساوی، میانگین رتبه­ها به الگوریتم ­ها اختصاص می­یابد. فرض کنیم که ، رتبه الگوریتم ام

تست آماری فریدمن بیشتر بخوانید »

معیار‌های ارزیابی الگوریتم‌های چندکلاسه

ارزیابی دقت الگوریتم‌های چندکلاسه، به علت تعداد زیاد مجموعه‌ داده‌های مورد آزمایش و تعداد متنوع روش‌های اعمال شده و همچنین خصوصیات مجموعه داد‌ه‌ها که هم شامل داده‌های متوازن و هم داده‌های نامتوازن می‌شود ، نیاز به اتخاذ روش‌های پیچیده‌ای دارد. در حوزه‌ مسائل چندکلاسه، به طور مرسوم، تنها دقت بدست آمده از دسته‌بندی به عنوان

معیار‌های ارزیابی الگوریتم‌های چندکلاسه بیشتر بخوانید »

دسته‌بندی‌کننده‌های سريال همزمان

در بسیاری از مواقع، یک دسته‌بندی‌کننده سريال تنها نمی تواند همه تغییر‌پذیری‌های[1] ممکن درون‌کلاسی[2] را برای کلاس هدف مدیریت کند [49]. در نتیجه، عمومیت[3] دسته‌بندی‌کننده سريال در مواجهه با مجموعه داده‌های پیچیده، به خطر می‌افتد. برای رفع این مشکل، یکی از راه حل‌های موجود، شکستن مساله به زیر مساله های کوچک‌تر است. همان‌گونه که قبلا ذکر

دسته‌بندی‌کننده‌های سريال همزمان بیشتر بخوانید »

ساختار‌های سريال درختی

مشکل تغییرپذیری درون‌کلاسی برای کلاس هدف و همچنین معایب استفاده از چندین دسته‌بندی‌کننده سريال به طور همزمان، در روش ارائه شده توسط لینهارت و همکاران [49] برطرف شد. روش آنها یک ساختار درختی از دسته‌بندی‌کننده‌ها را پیشنهاد می‌کرد که در شکل  زیر نمایش داده شده‌است. در هر گره[1] از این ساختار درختی، برای ساختن شاخه‌ها، الگوریتم خوشه‌بندی

ساختار‌های سريال درختی بیشتر بخوانید »

روش AdaBoost.ECC

الگوریتم AdaBoost.ECC، از بسیاری جهات شبیه AdaBoost.OC است. تفاوت اصلی این دو الگوریتم این است که، AdaBoost.ECC ارزش  را بر اساس شبه خطا در هر دور از اجرای الگوریتم، محاسبه نمی‌کند؛ بلکه  و  را که به ترتیب نشان‌دهنده رای‌های مثبت و منفی فرضیه  در مساله دوکلاسه است را در هر دور محاسبه می‌کند. بر اساس

روش AdaBoost.ECC بیشتر بخوانید »

روش AdaBoost.OC

الگوریتم‌های AdaBoost.OC و AdaBoost.ECC، قوانین روش ECOC را با یادگیری جمعی تقویتی ادغام کرده و به کمک این استراتژی، توانسته‌اند بر معایت روش AdaBoost.M2 فائق آیند. روش‌های یادگیری تقویتی مبتنی بر ECOC، به طور تکرار شونده، ستون‌های ماتریس کدگذاری را تولید می‌کنند به طوری که اغتشاش[1] میان کلاس‌ها در هر دور اجرای الگوریتم تقویتی، کاهش

روش AdaBoost.OC بیشتر بخوانید »

تکنیک های تجزیه کلاسی در یادگیری ماشین

رایج‌ترین تکنیک‌های تجزیه کلاسی، روش‌های یکی-در مقابل-یکی[1] (OAO) و یکی-در مقابل-همه[2] (OAA) است [27,28]. [1] One-against-one [2] One-against-all یکی-در مقابل-همه(OAA) روش یکی-در مقابل-همه، k دسته بندی کننده را برای یک مساله k–کلاسه می‌سازد. هر دسته‌بندی‌کننده برای شناختن یک کلاس در مقابل سایر کلاس‌ها آموزش داده می‌شود. در زمان بازیابی[1]، خروجی ایده آل آن است که

تکنیک های تجزیه کلاسی در یادگیری ماشین بیشتر بخوانید »

مسائل چند‌ کلاسه در یادگیری ماشین

در دو دهه اخیر شاهد ازدیاد ارایه گونه‌های مختلف از الگوریتم AdaBoost هستیم که تعدادی از آنها عبارتند از: الگوریتمRealBoost  [22] که خروجی یادگیر‌ها را بر اساس درجه اطمینان آنها بسط می‌دهد، GentelAdaBoost [23] که در مقابل داده‌های پرت[1] مقاوم‌تر است، [24]FloatBoost که با هدف کم کردن افزونگی[2] در دسته‌بندی‌کننده‌ها از طریق هرس[3] ارایه شد،

مسائل چند‌ کلاسه در یادگیری ماشین بیشتر بخوانید »

روش‌های BOOSTING

 [19] یک روش کلی برای بهبود دقت یادگیر‌های ضعیف، توسط یک پروسه تکرار‌شونده است. شپیر در سال 1990 اثبات کرد که یادگیر‌های ضعیف، که عملکرد آنها اندکی بهتر از حدس تصادفی است، می توانند طوری با هم ترکیب شوند که یک یادگیر قوی و دقیق را تشکیل دهند. روش Boosting همانند Bagging از باز‌نمونه‌گیری[1] داده‌ها

روش‌های BOOSTING بیشتر بخوانید »