تکنیک‌های تجزیه کلاسی در یادگیری ماشین

رایج‌ترین تکنیک‌های تجزیه کلاسی، روش‌های یکی-در مقابل-یکی[1] (OAO) و یکی-در مقابل-همه[2] (OAA) است [27,28].

[1] One-against-one

[2] One-against-all

یکی-در مقابل-همه(OAA)

روش یکی-در مقابل-همه، k دسته بندی کننده را برای یک مساله kکلاسه می‌سازد. هر دسته‌بندی‌کننده برای شناختن یک کلاس در مقابل سایر کلاس‌ها آموزش داده می‌شود. در زمان بازیابی[1]، خروجی ایده آل آن است که همه دسته‌بندی‌کننده‌ها به یک کلاس رای دهند؛ از آنجایی که اغلب موارد شرایط به این خوبی پیش نمی‌رود، تساوی رای‌ها به صورت دلخواه و مستبدانه شکسته می‌شود [29]یا یک ارزش اضافی برای میزان اعتبار هر دسته‌بندی‌کننده طوری تعریف شود که از به وجود آمدن شرایط نامطلوب جلوگیری کند [30]. یکی از معایب این روش این است که در مواجهه با داده‌های آموزشی نامتوازن[2] قادر به ساختن مرز تصمیم‌گیری دقیق نیست [31,32,33].

 

یکی-در مقابل-یکی(OAO)

روش یکی-در مقابل-یکی که به دسته‌بندی دوره‌ای[3] نیز معروف است، به این صورت عمل می‌کند که مجموعه داده‌های یک کلاس در مقابل نمونه‌های سایر کلاس‌ها آموزش داده می‌شود؛ به گفته دیگر اگر k کلاس داشته باشیم آنگاه  دسته‌بندی‌کننده دو‌کلاسه خواهیم داشت. با وجود اینکه پیچیدگی زمانی تولید این تعداد دسته‌بندی‌کننده از مرتبه  است اما در مقابل آموزش این دسته‌بندی‌کننده‌ها ، به علت دو‌کلاسه بودن، بسیار سریع انجام می‌شود. از طرف دیگر با این روش مرز تصمیم‌گیری با آزادی بیشتری نسبت به حالتی که کل کلاس‌ها با هم در نظر گرفته می‌شوند، تخمین زده می‌شود [34]. ساده‌ترین و رایج‌ترین راه ترکیب نتیجه دسته‌بندی‌کننده‌ها، گرفتن رأی به اکثریت است [30]. بزرگترین مشکل استفاده از روش رای به اکثریت در اینجا این است که تعداد زیادی رای توسط دسته‌بندی‌کننده‌ها تولید می‌شود که برخی رای‌ها، به علت بی‌ربط بودن کلاس‌ها به تعدادی از دسته‌بندی‌کننده‌ها، از درجه اعتبار کمی‌برخوردار هستند. یکی از نقاط قوت این الگوریتم این است که باعث ایجاد عدم توازن در توزیع کلاسی نمی­شود و می­توان آن را به شیوه‌ی یادگیری افزایشی[4] نیز پیاده­سازی کرد. زمانی که کلاس جدیدی از داده، به داده­های قبلی افزوده ­می­شود، می­توان  دسته‌بندی‌کننده جدید دیگر آموزش داد و بدون تأثیر روی سایر دسته‌بندی‌کننده‌ها، به مجموعه افزود.

[1] Detection time

[2] Imbalanced data

[3] Round robin classification

[4] Incremental learning

پیام بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

80 − = seventy two