اگر (x,y) برای مسئله محدود شده اولیه ماکزیمم باشد λای وجود دارد بهطوریکه (x,y,λ) برای تابع لاگرانژ نقطه تکین[۲۳] است(نقطه تکین نقطهای است که مشتق جزئی L نسبت به تابع صفر است.)
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
ابرصفحه: ابرصفحه[۲۴] یک مفهوم در هندسه است و تعمیمی از یک صفحه در تعداد متفاوتی از ابعاد میباشد. هر ابرصفحه یک زیر فضای k بعدی در یک فضای n بعدی تعریف می کند که k<n میباشد. مثلاً خط یک ابرصفحه یک بعدی در یک فضا با هر تعداد بعد است. در سه بعد صفحه یک ابرصفحه دوبعدی است و به همین ترتیب برای فضاهای با ابعاد بالاتر، ابرصفحه تعریف می شود.
ماشین بردار پشتیبان[۲۵](SVM): ماشین بردار پشتیبان یک مجموعه از متدهای یادگیری با ناظر[۲۶] است که برای طبقه بندی[۲۷] و رگرسیون استفاده می شود]۱۸[. ماشین بردار پشتیبان در سال ۱۹۹۲ توسط Vapnik و Chervonenkis بر پایه تئوری یادگیری آماری معرفی شد[۷]. ماشین بردار پشتیبان یک مفهوم ریاضی برای ماکزیمم کردن تابع ریاضی با توجه به مجموعه داده های داده شده است. همچنین شهرت آن به خاطر کارایی در تشخیص حروف دستنویس است که با شبکه های عصبی پیچیده قابل قیاس میباشد.
در SVM یک داده به صورت یک بردار P بعدی(یک لیست از P عدد) دیده میشود که میتوان چنین نقاطی را با یک ابرصفحه P-1 بعدی جدا کرد. این عمل جداسازی خطی نامیده میشود. ابرصفحههای بسیاری وجود دارند که میتوانند داده ها را جدا کنند. البته انتخاب ابرصفحه مناسب نقش کلیدی دارد.
مفهوم آموزشی که داده ها بتوانند به عنوان نقاط در یک فضای با ابعاد بالا دستهبندی شوند و پیدا کردن خطی که آنها را جدا کند، منحصربهفرد نیست. آنچه SVM را از سایر جداکنندهها متمایز میکند، چگونگی انتخاب ابرصفحه است.
درSVM ماکزیمم کردن حاشیه بین دو کلاس مدنظر است. بنابراین ابرصفحهای را انتخاب میکند که فاصله آن از نزدیکترین داده ها در هر دو طرف جداکننده خطی ماکزیمم باشد. اگر چنین ابرصفحهای وجود داشته باشد به عنوان ابرصفحه ماکزیمم حاشیه[۲۸] شناخته میشود. شکل ۳-۱۱ این مفهوم را به صورت بصری نشان میدهد.
یک ابرصفحه حداکثر کننده حاشیه مدنظر میباشد، چون به نظر میرسد مطمئنترین راهحل باشد و تئوریهایی بر مبنای VC dimension وجود دارد که مفید بودن آن را اثبات میکند؛ همچنین این روش بهطور تجربی نتایج قابل قبولی داده است.
شکل ۳-۱۱- نمایش ماکزیمم کردن حاشیه بین دو کلاس
برای ساخت ماکزیمم حاشیه دو صفحه مرزی موازی با صفحه جداکننده رسم کرده، آن دو را آنقدر از هم دور میکنند که به داده ها برخورد کنند. صفحه جداکنندهای که بیشترین فاصله را از صفحات مرزی داشته باشد بهترین جداکننده خواهد بود.
تابع تصمیم گیری برای جدا کردن داده ها با یک زیرمجموعه از نمونههای آموزشی تعیین میشود؛ نمونههای آموزشی در اینجا بردارهای پشتیبان[۲۹] نزدیکترین داده های آموزشی به ابرصفحه جداکننده میباشند؛ درواقع ابرصفحه بهینه در SVM جداکنندهای بین بردارهای پشتیبان است.
شکل ۳-۱۲ نمایش بردارهای پشتیبان برای جدا کردن داده ها
در صورت استفاده مناسب از SVM، این الگوریتم قدرت تعمیم خوبی خواهد داشت و علیرغم ابعاد زیاد، از سرریز شدن[۳۰] پرهیز می کند. همچنین به دلیل استفاده از بردارهای پشتیبان بهجای کل داده ها این الگوریتم، فشردهسازی اطلاعات را نیز انجام میدهد.
فرموله کردن مسئله: تعدادی داده آموزشی، به صورت مجموعه ای از نقاط مطابق رابطه داریم:
(۳-۱۷)
در این رابطه میتواند ۱ یا ۱- باشد که مشخص میکند نقطه متعلق به چه کلاسی است. هر یک بردار p بعدی است. باید جداکننده ماکزیمم حاشیهای پیدا شود تا نقاطی را که آنها برابر ۱ است، از نقاطی که آنها ۱- است، جدا کند. هر ابرصفحه میتواند به صورت یک مجموعه از نقاط x که در رابطه صدق می کند، نوشته شود:
W.X-b=0
(۳-۱۸)