1
SVM এর সমান RLU অ্যাক্টিভেশন সহ একক স্তর নিউরাল নেটওয়ার্ক?
ধরুন আমার কাছে এন ইনপুট এবং একটি একক আউটপুট (বাইনারি শ্রেণিবদ্ধকরণ টাস্ক) সহ একটি সাধারণ একক স্তর নিউরাল নেটওয়ার্ক রয়েছে। যদি আমি সিগময়েড ফাংশন হিসাবে আউটপুট নোডে অ্যাক্টিভেশন ফাংশনটি সেট করি- তবে ফলাফলটি লজিস্টিক রিগ্রেশন শ্রেণিবদ্ধ হয়। এই একই দৃশ্যে, যদি আমি আউটপুট অ্যাক্টিভেশনটিকে রিলু (সংশোধিত লিনিয়ার ইউনিট) তে পরিবর্তন …