امروزه شاهد رشد عظیمی در تولید داده هستیم. فعالیتها و تعاملهای روزانه انسانها، حجم چشمگیری از دادهها و اطلاعات را به وجود میآورد؛ به عنوان مثال در ارتباطات از راه دور، تراکنش هایمالی و بانکی، شبکههای اجتماعی، فعالیتهای اینترنتی عام، امور مربوط به بهداشت و درمان، پایش اطلاعات امنیتی، اطلاعات و دادههای آماری مانند سرشماری نفوس و بسیاری موارد دیگر [1,2]. با پیشرفت چشمگیر تجهیزات سخت افزاری، هزینه ذخیره داده کم شده است؛ این در حالی است که آنالیز صحیح و استخراج اطلاعات مفید از این حجم از داده به یک دغدغه تبدیل شده است. هوش مصنوعی[1] و به ویژه حوزه یادگیری ماشین[2]، به دنبال یافتن روشها و ابزارهای موثر جهت رفع این مشکل می باشد.
2-1- یادگیری ماشین
اصلیترین زمینه تحقیقاتی در حوزه یادگیری ماشین، شناسایی الگو[3] است؛ یعنی استخراج اطلاعات و الگوهای تکرار شونده از داده ورودی[4]، که این اطلاعات برای انجام تصمیمگیری در مورد دادههای نادیده[5] کاربرد دارد.
بر اساس نوع پیش بینی دادههای نادیده، انواع روشهای شناسایی الگو را می توان به دو گروه کلی روشهای مبتنی بر دستهبندی[6] و روشهای مبتنی بر رگرسیون[7] تقسیمبندی کرد. سیستمهای مبتنی بر دستهبندی، سعی در ساختن مدلی دارند که خروجی آن گسسته[8] میباشد و این خروجی در واقع برچسب کلاسی[9] است که سیستم برای یک نمونه خاص پیشنهاد میدهد؛ در مقابل، سیستمهای مبتنی بر رگرسیون، تابعی پیوسته[10] را مدل میکنند و خروجی آنها به صورت عددی[11] میباشد.
یادگیری ماشین را میتوان به چهار دسته کلی یادگیری با نظارت[12] و یادگیری بدون نظارت[13]، یادگیری نیمه نظارتی[14] و یادگیری فعال[15] تقسیمبندی کرد. در یادگیری با نظارت، سیستم با دادههای آموزشی که دارای برچسبهای کلاس معین هستند آموزش داده میشود. این گروه از الگوریتمها که بسیار رایج نیز میباشند، سعی در ساخت مدلی دارند که به بهترین نحو دادههای آموزشی را به برچسب کلاس داده شدهی آنها مرتبط سازند. مدل ساخته شده بر این اساس، در مرحله آزمایش[16] سعی در پیش بینی برچسب کلاس دادههای آزمایشی خواهد کرد. در مقابل این گروه از الگوریتم ها، الگوریتم های مبتنی بر یادگیری بدون نظارت، بدون دریافت برچسب کلاس دادههای آموزشی، سعی در دستهبندی دادههای آموزشی میکنند؛ به این نوع از یادگیری، خوشهبندی[17] نیز گفته میشود. گاهی تنها بخشی از برچسب کلاس دادههای آموزشی در دسترس است بنابر این دسته سوم از الگوریتمها، یعنی الگوریتمهای نیمهنظارتی، عملکردی مابین الگوریتمهای نظارتی و الگوریتمهای بدون نظارت دارند. در یادگیری فعال، سیستم در مرحله آموزش، با انسان تعامل دارد؛ به این صورت که انسان برچسبهای مناسب را به دادههای ورودی نسبت میدهد و سیستم با توجه به برچسبهای اختصاص داده شده، به پایش اطلاعات خود و مدل آموزشی میپردازد.
3-1- الگوریتمهای یادگیری جمعی
القای دستهبندیکننده ها هنگامی که تعداد دادههای آموزشی به طرز چشمگیری زیاد باشد با مشکل روبهرو خواهد شد. این پدیده باعث به وجود آمدن مرزهای کلاس[23] پیچیده میشود؛ یادگیری دقیق این مرزها، برای دستهبندیکنندههایی که سعی در تولید یک قانون برای توصیف داده دارند، به چالشی عظیم تبدیل می شود. پیچیدگی این وضعیت زمانی به اوج خود می رسد که بردار خصیصه دادهها، دارای ابعاد بالا[24] باشد.
رواج خانواده خاصی از الگوریتمهای یادگیری ماشین، تحت عنوان الگوریتمهای یادگیری جمعی که سعی در مواجهه و برطرف نمودن چالشهای موجود دارند، طی سالهای اخیر بسیار چشمگیر بوده است. این دسته از الگوریتمها، موفقیت خود را مرهون عملکرد محافظهکارانه خود میباشند. در حالی که اکثر الگوریتمهای یادگیری از القای یک دستهبندیکننده برای توصیف داده استفاده میکنند، الگوریتمهای یادگیری جمعی از تعداد زیادی یادگیرهای ضعیف[25]، که قدرت پیش بینی آنها اندکی بهتر از حدس تصادفی[26] است، بهره می برند. به بیان دیگر، ایده اصلی الگوریتمهای یادگیری جمعی، بهکارگیری چندین یادگیر و ترکیب نتیجه پیش بینی آنها به عنوان یک گروه از دستهبندیکنندهها و بالا بردن دقت کلی[27] یادگیری است. به هر یک از اعضای موجود در این گروه از یادگیرها، یادگیر پایه[28] گفته می شود. در مسائل دستهبندی، الگوریتم یادگیری جمعی به عنوان سیستم دستهبندی چندگانه[29]، ائتلاف دستهبندیکننده ها[30]، کمیتهای از دستهبندیکنندهها[31] و یا ترکیب دستهبندیکنندهها[32] نیز خوانده می شود. پیش بینی هر یک از اعضا ممکن است به صورت یک عدد حقیقی[33]، برچسب کلاس، احتمال پسین[34] و یا هر چیز دیگری باشد. چگونگی ترکیب رأی اعضای الگوریتم، در نتیجه گیری نهایی بسیار مهم است که شامل میانگینگیری، رأی به اکثریت[35] و روشهای احتمالی می شود.
4-1- دسته بندی کننده های سریال
ویولا و جونز [3] در سال 2001 برای اولین بار قوانین روشهای مبتنی بر یادگیری جمعی را به کمک مفهوم یادگیری کلان-به-جزیی[1] توسعه دادند. با این گام عظیم، آنها روشی را ابداع کردند که انجام دستهبندی دقیق و سریع بر روی مجموعه دادههای تشخیص چهره[2]، که شامل صدها هزار داده بودند، را امکان پذیر می ساخت. روش ابداعی آنها به صورت یک ساختار سریال بود که دستهبندیکنندههای جمعی را در لایههای متوالی به صورتی کنار هم قرار میداد که لایههای اولیه شامل تعداد کمی از دستهبندیکنندهها بود و این تعداد در لایههای بعدی به مرور افزایش مییافت. این روش تاثیر بسزایی در تولید دستهبندیکننده های پیمانهبندیشده[3] و دقیق داشت که به طبع، نه تنها در زمینه تشخیص چهره، بلکه در زمینههای مختلف کاربرد داشت. با این حال آموزش دستهبندیکنندههای موثر با بهره گرفتن از روش ویولا و جونز، به علت زمانبر بودن بیش از حد مرحله آموزش، تقریبا مقرونبهصرفه نبود.
در تلاشی برای کاهش زمان آموزش دستهبندیکنندههای سریال در مواجهه با مجموعه دادههای بسیار بزرگ، بارکزاک و همکاران [4] یک روش سریال تودرتو ارائه کردند. آنها نام روش خود را PSL[4] نهادند که بیانگر دستهبندیکنندههای تودرتوی سریال متشکل از دستهبندیکنندههای قوی موازی در هر لایه است.
[1] Coarse-to-fine learning
[2] Face recognition
[3] Boosting
[4] Parallel Strong classifiers within the same Layer
[1] Artificial intelligence
[2] Machine learning
[3] Pattern recognition
[4] Input data
[5] Unseen data
[6] Classification
[7] Regression
[8] Discrete
[9] Class label
[10] Continues-valued function
[11] Numerical
[12] Supervised learning
[13] Unsupervised learning
[14] Semi-supervised
[15] Active learning
[16] Testing phase
[17] Clustering
[18] Training set
[19] Feature vector
[20] Classifier
[21] Hypothesis
[22] Decision boundary
[23] Class boundaries
[24] High dimensional
[25] Weak learners
[26] Random guess
[27] Overall accuracy
[28] Base learner
[29] Multiple classifier system
[30] Classifier fusion
[31] Committee of classifiers
[32] Classifier combination
[33] Real number
[34] Posterior probability
[35] Majority vote