رایجترین تکنیکهای تجزیه کلاسی، روشهای یکی-در مقابل-یکی[1] (OAO) و یکی-در مقابل-همه[2] (OAA) است [27,28].
[1] One-against-one
[2] One-against-all
روش یکی-در مقابل-همه، k دسته بندی کننده را برای یک مساله k–کلاسه میسازد. هر دستهبندیکننده برای شناختن یک کلاس در مقابل سایر کلاسها آموزش داده میشود. در زمان بازیابی[1]، خروجی ایده آل آن است که همه دستهبندیکنندهها به یک کلاس رای دهند؛ از آنجایی که اغلب موارد شرایط به این خوبی پیش نمیرود، تساوی رایها به صورت دلخواه و مستبدانه شکسته میشود [29]یا یک ارزش اضافی برای میزان اعتبار هر دستهبندیکننده طوری تعریف شود که از به وجود آمدن شرایط نامطلوب جلوگیری کند [30]. یکی از معایب این روش این است که در مواجهه با دادههای آموزشی نامتوازن[2] قادر به ساختن مرز تصمیمگیری دقیق نیست [31,32,33].
یکی-در مقابل-یکی(OAO)
روش یکی-در مقابل-یکی که به دستهبندی دورهای[3] نیز معروف است، به این صورت عمل میکند که مجموعه دادههای یک کلاس در مقابل نمونههای سایر کلاسها آموزش داده میشود؛ به گفته دیگر اگر k کلاس داشته باشیم آنگاه دستهبندیکننده دوکلاسه خواهیم داشت. با وجود اینکه پیچیدگی زمانی تولید این تعداد دستهبندیکننده از مرتبه است اما در مقابل آموزش این دستهبندیکنندهها ، به علت دوکلاسه بودن، بسیار سریع انجام میشود. از طرف دیگر با این روش مرز تصمیمگیری با آزادی بیشتری نسبت به حالتی که کل کلاسها با هم در نظر گرفته میشوند، تخمین زده میشود [34]. سادهترین و رایجترین راه ترکیب نتیجه دستهبندیکنندهها، گرفتن رأی به اکثریت است [30]. بزرگترین مشکل استفاده از روش رای به اکثریت در اینجا این است که تعداد زیادی رای توسط دستهبندیکنندهها تولید میشود که برخی رایها، به علت بیربط بودن کلاسها به تعدادی از دستهبندیکنندهها، از درجه اعتبار کمی برخوردار هستند. یکی از نقاط قوت این الگوریتم این است که باعث ایجاد عدم توازن در توزیع کلاسی نمیشود و میتوان آن را به شیوهی یادگیری افزایشی[4] نیز پیادهسازی کرد. زمانی که کلاس جدیدی از داده، به دادههای قبلی افزوده میشود، میتوان دستهبندیکننده جدید دیگر آموزش داد و بدون تأثیر روی سایر دستهبندیکنندهها، به مجموعه افزود.
[1] Detection time
[2] Imbalanced data
[3] Round robin classification
[4] Incremental learning