ইন সপ্তাহ 3 বক্তৃতা নোট এর অ্যান্ড্রু এনজি এর Coursera মেশিন লার্নিং বর্গ , একটি শব্দ নিয়মিতকরণ বাস্তবায়ন খরচ ফাংশন যোগ করা হয়:
জে+ +( θ ) = জে( θ ) +λ2 মিΣj = 1এনθ2ঞ
বক্তৃতা নোটগুলি বলে:
আমরা একক সংশ্লেমে আমাদের সমস্ত থীতা পরামিতিগুলিকেও নিয়মিত করতে পারি:
মি iএনθ 12 মি [Σi = 1মি(জθ(এক্স( i )) -Y( i ))2+ + λ Σj = 1এনθ2ঞ]
12 মিপরে নিউরাল নেটওয়ার্কগুলির নিয়মিতকরণের মেয়াদে প্রয়োগ করা হয় :
স্মরণ করুন যে নিয়মিত লজিস্টিক রিগ্রেশন জন্য ব্যয় কাজটি ছিল:
J(θ)=−1m∑i=1m[y(i) log(hθ(x(i)))+(1−y(i)) log(1−hθ(x(i)))]+λ2m∑j=1nθ2j
নিউরাল নেটওয়ার্কগুলির জন্য, এটি কিছুটা জটিল হতে চলেছে:
J( Θ ) = -1মিΣi = 1মিΣকে = 1কে[Y( i )টলগ( (জΘ(এক্স( i )))ট) + ( 1 -Y( i )ট) লগ( 1 - (জΘ(এক্স( i )))ট) ]+ +λ2 মিΣl = 1এল - 1Σi = 1গুলিঠΣj = 1গুলিl + 1(Θ( l )j , i)2
- কেন এখানে ধ্রুবক অর্ধেক ব্যবহার করা হয়? যাতে এটি ডেরাইভেটিভ এ বাতিল করা হয়জে'?
- কেন বিভাগ দ্বারা মিপ্রশিক্ষণের উদাহরণ? প্রশিক্ষণের উদাহরণগুলির পরিমাণ কীভাবে জিনিসগুলিকে প্রভাবিত করে?