در دو دهه اخیر شاهد ازدیاد ارایه گونههای مختلف از الگوریتم AdaBoost هستیم که تعدادی از آنها عبارتند از: الگوریتمRealBoost [22] که خروجی یادگیرها را بر اساس درجه اطمینان آنها بسط میدهد، GentelAdaBoost [23] که در مقابل دادههای پرت[1] مقاومتر است، [24]FloatBoost که با هدف کم کردن افزونگی[2] در دستهبندیکنندهها از طریق هرس[3] ارایه شد، [25]Local boosting که با استفاده از روش تقویت به وسیله بازنمونهگیری[4] به دقت و مقاومت بیشتر در مقابل دادههای نویزی دست یافت، Asymmetric AdaBoost [3] که قالب به روز رسانی وزن دادهها را به صورت افزایش وزن دادههای دلخواه کلاس مثبت تغییر داد، بوهولمن و هوتورن [26]روش Twin Boost را پیشنهاد کردند و گزارش کردند که این روش از یک متد پیشرفته انتخاب خصیصه[5] استفاده میکند که منجر به تشکیل یادگیرهای جمعی سادهتر و دقیقتر میشود.
دستهبندی مسائل چندکلاسه در مقایسه با مسائل دوکلاسه با چالشهای مهمتری مواجه است به علت اینکه احتمال بروز خطا در این دسته از مسائل به مراتب بالاتر است. یکی از روشهای متداول برای حل مسائل چندکلاسه، شکستن آنها به تعدادی مسائل دوکلاسه به جای اعمال مستقیم الگوریتمهای حل مسائل چندکلاسه است [7]
[1] Outliers
[2] Redundancy
[3] Pruning
[4] Boosting-by-resampling
[5] Feature selection