আমি সমর্থন ভেক্টর মেশিনগুলির সাধারণীকরণের দক্ষতার জন্য তাত্ত্বিক ফলাফলগুলিতে আগ্রহী, যেমন শ্রেণিবদ্ধকরণ ত্রুটির সম্ভাবনা এবং এই মেশিনগুলির ভ্যাপনিক-চেরভোনেনকিস (ভিসি) মাত্রা সম্পর্কে সীমাবদ্ধ। যাইহোক, সাহিত্যের মাধ্যমে আমার অনুভূতিটি অনুভূত হয়েছিল যে কিছু অনুরূপ পুনরাবৃত্তি ফলাফল লেখক থেকে লেখক থেকে কিছুটা আলাদা হতে থাকে, বিশেষত একটি নির্দিষ্ট সময় ধরে রাখার জন্য আবশ্যক প্রযুক্তিগত শর্তাদি সম্পর্কে।
নিম্নলিখিতটিতে আমি এসভিএম সমস্যার কাঠামো এবং মূল জেনারালাইজের ফলাফলের 3 অবস্থাটি স্মরণ করবো যা আমি প্রায়শই এক ফর্ম বা অন্যটিতে খুঁজে পেয়েছি আমি পুরো প্রদর্শনীতে 3 টি প্রধান রেফারেন্স দিই।
সমস্যা সেটিং :
ধরে আমরা স্বাধীন ও অভিন্নরুপে বিতরণ (IID) যুগলের একটি ডাটা নমুনা আছে যেখানে সবার জন্য , এবং । আমরা একটি সমর্থন ভেক্টর মেশিন (এসভিএম) তৈরি করি যা { x : w ⋅ x + b = 0 দ্বারা সংজ্ঞায়িত পৃথক হাইপারপ্লেনের মধ্যে সর্বনিম্ন মার্জিন সর্বাধিক করে তোলে , এবং এবং মধ্যে নিকটতম বিন্দুযাতে এবং দ্বারা সংজ্ঞায়িত দুটি শ্রেণি পৃথক করতে পারে। স্ল্যাক ভেরিয়েবলগুলি প্রবর্তন করে আমরা SVM কে একটি নরম মার্জিনের মাধ্যমে কিছু ত্রুটি স্বীকার করতে দিয়েছি তবে উল্লেখযোগ্য সরলতার জন্য আমরা কার্নেলের সম্ভাবনাটিকে উপেক্ষা করি। সমাধানের পরামিতিগুলি এবং নিম্নলিখিত উত্তল চতুর্ভুজ অপ্টিমাইজেশন প্রোগ্রাম সমাধান করে প্রাপ্ত করা হয়:
আমরা এই মেশিনের সাধারণীকরণের দক্ষতায় আগ্রহী।
ভ্যাপনিক-চেরভোনেনকিস মাত্রা :
প্রথম ফলাফলটি (ভ্যাপনিক, ২০০০) কারণে রয়েছে, যেখানে তিনি পৃথক পৃথক হাইপারপ্লেনের উপাচার 5,1 এর ভিসি মাত্রাকে সীমাবদ্ধ করেন। আর = \ সর্বোচ্চ_{ x_i} \ | x_i \ | লেট করা হচ্ছে , আমাদের আছে:
এই ফলাফলটি আবার (বার্জেস, ১৯৯৯), উপপাদ্য 6 এ পাওয়া যাবে তবে মনে হয় যে, বুপেসের উপপাদ্যটি ভ্যাপনিকের একই ফলাফলের চেয়ে আরও সীমাবদ্ধ, কারণ তাকে একটি বিশেষ শ্রেণির শ্রেণিবদ্ধের সংজ্ঞা দেওয়া দরকার, যা ফাঁক-সহনশীল শ্রেণিবদ্ধ হিসাবে পরিচিত known যার সাথে এসভিএম অন্তর্ভুক্ত , উপপাদ্যটি বর্ণনা করুন।
ত্রুটি হওয়ার সম্ভাবনা সম্পর্কে সীমাবদ্ধ :
(ভ্যাপনিক, ২০০০) এ, পৃষ্ঠা ১৩৯-এর উপপাদ্য 5.২ এসভিএম সাধারণীকরণের যোগ্যতার উপর নিম্নলিখিত আবদ্ধতা দেয়:
যেখানে হ'ল সমর্থন ভেক্টরের সংখ্যা। এই ফলাফলগুলি যথাক্রমে (বার্জেস, 1998), সমীকরণ (86) এবং (93) এ আবার পাওয়া গেছে বলে মনে হচ্ছে। তবে আবার, বার্জগুলি ভ্যাপনিক থেকে পৃথক বলে মনে হচ্ছে কারণ তিনি বিভিন্ন অবস্থার সাথে বিভিন্ন উপপাদিতে উপরের ন্যূনতম কার্যের মধ্যে উপাদানগুলি পৃথক করে দেন।
(ভ্যাপনিক, ২০০০), পি .১৩৩৩ এ প্রদর্শিত আরও একটি ফলাফল নিম্নলিখিত। আবার ধরে নিই যে, সবার জন্য , এবং এবং আমরা সমান হতে সংজ্ঞায়িত করেছি :‖ x i ‖ 2 ≤ R 2 h ≡ V C ϵ ∈ [ 0 , 1 ] ζ ζ
আমরা এসভিএম দ্বারা ভুল শ্রেণিবদ্ধ প্রশিক্ষণের উদাহরণ হতে সংজ্ঞায়িত করি । তারপর সম্ভাব্যতা সঙ্গে আমরা জাহির করতে পারে সম্ভাব্যতা যে একটি পরীক্ষা উদাহরণ দ্বারা সঠিকভাবে পৃথক করা হবে না -margin hyperplane অর্থাত SVM সঙ্গে মার্জিন আবদ্ধ করেছেন: 1 - ϵ m ∗ - m ∗ -
যাইহোক, (হাসিটি, তিবশিরানী এবং ফ্রেডম্যান, ২০০৯), পৃষ্ঠা ৪৪৩-এ খুব অনুরূপ ফলাফল পাওয়া গেছে:
উপসংহার :
আমার কাছে মনে হয় যে এই ফলাফলগুলির মধ্যে একটি নির্দিষ্ট ডিগ্রি বিরোধ রয়েছে। অন্যদিকে, এসভিএম সাহিত্যে প্রচলিত যদিও এই দুটি উল্লেখ উল্লেখযোগ্যভাবে কিছুটা পুরানো হতে শুরু করে (1998 এবং 2000), বিশেষত যদি আমরা বিবেচনা করি যে এসভিএম অ্যালগরিদমের গবেষণা নব্বইয়ের দশকের মাঝামাঝি থেকে শুরু হয়েছিল।
আমার প্রশ্নগুলি হ'ল:
- এই ফলাফলগুলি আজও বৈধ, বা সেগুলি ভুল প্রমাণিত হয়েছে?
- তখন থেকে তুলনামূলকভাবে শিথিল অবস্থার সাথে আরও কঠোর সীমারেখা নেওয়া হয়েছে? যদি তা হয় তবে কারা এবং কোথায় আমি তাদের সন্ধান করতে পারি?
- অবশেষে, এমন কোনও রেফারেন্স উপাদান রয়েছে যা এসভিএম সম্পর্কে প্রধান সাধারণীকরণের ফলাফলকে সংশ্লেষ করে?
তথ্যসূত্র :
ভ্যাপনিক, ভিএন (1998)। স্ট্যাটিস্টিকাল লার্নিং থিয়োরি , প্রথম সংস্করণ, জন উইলি অ্যান্ড সন্স
ভ্যাপনিক, ভিএন (2000)। স্ট্যাটিস্টিকাল লার্নিং থিওরির প্রকৃতি , ২ য় সংস্করণ, স্প্রঞ্জার