مسائل چند‌ کلاسه در یادگیری ماشین

در دو دهه اخیر شاهد ازدیاد ارایه گونه‌های مختلف از الگوریتم AdaBoost هستیم که تعدادی از آنها عبارتند از: الگوریتمRealBoost  [22] که خروجی یادگیر‌ها را بر اساس درجه اطمینان آنها بسط می‌دهد، GentelAdaBoost [23] که در مقابل داده‌های پرت[1] مقاوم‌تر است، [24]FloatBoost که با هدف کم کردن افزونگی[2] در دسته‌بندی‌کننده‌ها از طریق هرس[3] ارایه شد، [25]Local boosting که با استفاده از روش تقویت به وسیله باز‌نمونه‌گیری[4] به دقت و مقاومت بیشتر در مقابل داده‌های نویزی دست یافت، Asymmetric AdaBoost [3] که قالب به روز رسانی وزن داده‌ها را به صورت افزایش وزن داده‌های دلخواه کلاس مثبت تغییر داد، بوهولمن و هوتورن [26]روش Twin Boost را پیشنهاد کردند و گزارش کردند که این روش از یک متد پیشرفته انتخاب خصیصه[5] استفاده می‌کند که منجر به تشکیل یادگیر‌های جمعی ساده‌تر و دقیق‌تر می‌شود.

دسته‌بندی مسائل چند‌کلاسه در مقایسه با مسائل دو‌کلاسه با چالش‌های مهمتری مواجه است به علت اینکه احتمال بروز خطا در این دسته از مسائل به مراتب بالاتر است. یکی از روش‌های متداول برای حل مسائل چند‌کلاسه، شکستن آنها به تعدادی مسائل دو‌کلاسه به جای اعمال مستقیم الگوریتم‌های حل مسائل چند‌کلاسه است [7]

[1] Outliers

[2] Redundancy

[3] Pruning

[4] Boosting-by-resampling

[5] Feature selection

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *