অপ্টিমাইজেশনের সমস্যাগুলি লেখার সময় আপনি সম্ভবত লক্ষ্য করেছেন যে, হিমবার্টের আদর্শকে শাস্তি দেওয়ার ক্ষেত্রে হ্রাস করার ক্ষেত্রে একমাত্র পার্থক্য। এটি, শাস্তি দেওয়ার উদ্দেশ্যে 'বৃহত্তর' মানগুলি কী পরিমাণ তা প্রমাণ করা। আরকেএইচএস সেটিং-এ আমরা আরকেএইচএস অভ্যন্তরীণ পণ্য, , যেখানে রিজ রিগ্রেশন জানিয়ে শাস্তি দেয়।ααtKα
একটি আকর্ষণীয় তাত্ত্বিক পরিণতি হ'ল প্রতিটি পদ্ধতি কীভাবে প্রজনন কার্নেল এর বর্ণালীকে প্রভাবিত করে । আরকেএইচএস তত্ত্ব অনুসারে, আমাদের কাছে একসম্মত ইতিবাচক সুনির্দিষ্ট। বর্ণালী উপপাদ্য দ্বারা, আমরা লিখতে যেখানে হ'ল ইগেনভ্যালুগুলির তির্যক ম্যাট্রিক্স এবং হ'ল ম্যাট্রিক্স। ফলস্বরূপ, আরকেএইচএস সেটিং-এ, ল্যাম্বদা এনআই mb ল্যাম্বদা এনআই
এদিকে, রিজ রিগ্রেশন সেটিং-এ, খেয়াল করুন যে প্রতিসাম্য দ্বারা,
KKK=UtDUDU
(K+λnI)−1Y=[Ut(D+λnI)U]−1Y=Ut[D+λnI]−1UY.
KtK=K2(K2+λnI)−1KY=[Ut(D2+λnI)U]−1KY=Ut[D2+λnI]−1UKY=Ut[D2+λnI]−1DUY=Ut[D+λnD−1]−1UY.
এর বর্ণালী যাক হতে । আরকেএইচএস প্রতিরোধে, দ্বারা ইগেনভ্যালুগুলি স্থির হয়
। রিজ রিগ্রেশন-এ, আমাদের কাছে
। । ফলস্বরূপ, আরকেএইচএস সমানভাবে ইগেনভ্যালুগুলি পরিবর্তন করে এবং সংশ্লিষ্ট যদি ছোট হয় তবে রিজ একটি বৃহত্তর মান যুক্ত করে ।
Kν1,…,νnνi→νi+λnνi→νi+λn/νiνi
কার্নেলের পছন্দ অনুসারে, জন্য দুটি অনুমান একে অপরের কাছাকাছি বা দূরে হতে পারে। অপারেটরের আদর্শ জ্ঞানের দূরত্বটি হবে
তবে এটি এখনও প্রদত্ত জন্য সীমাবদ্ধα
∥αRKHS−αRidge∥ℓ2=∥ARKHSY−ARidgeY∥ℓ2≤∥[D+λnI]−1−[D+λnD−1]−1∥∞∥Y∥ℓ2≤maxi=1,…,n{|(νi+λn)−1−(νi+λn/νi)−1|}∥Y∥ℓ2≤maxi=1,…,n{λn|1−νi|(νi+λn)(ν2i+λn)}∥Y∥ℓ2
Y, সুতরাং আপনার দুটি অনুমানক নির্বিচারে দূরে করা যাবে না। অতএব, যদি আপনার কার্নেল পরিচয়ের খুব কাছাকাছি থাকে, তবে সম্ভবত পন্থাগুলিতে খুব কম পার্থক্য থাকবে। যদি আপনার কার্নেলগুলি পৃথকভাবে পৃথক হয় তবে দুটি পদ্ধতির ফলে একইরকম ফলাফল হতে পারে।
বাস্তবে, নির্দিষ্ট অবস্থার জন্য যদি একজনের চেয়ে অন্যটির থেকে ভাল হয় তবে স্পষ্ট করে বলা শক্ত। যেহেতু আমরা কার্নেল ফাংশনের ক্ষেত্রে ডেটা উপস্থাপন করার সময় স্কোয়ার ত্রুটির প্রতি শ্রদ্ধা রেখে কম করছি, কার্যকরভাবে হিলবার্টের কার্যকারিতা থেকে আমরা কার্যকরভাবে একটি সেরা রিগ্রেশন রেখা বেছে নিচ্ছি। অতএব, আরকেএইচএস অভ্যন্তরীণ পণ্যটির প্রতি শ্রদ্ধা জানানো প্রাকৃতিক উপায় বলে মনে হয়।