মূলত, আমার প্রশ্নটি হ'ল মাল্টিলেয়ার পারসেপ্ট্রনগুলিতে পার্সেপট্রনগুলি সিগময়েড অ্যাক্টিভেশন ফাংশন সহ ব্যবহৃত হয়। যাতে আপডেটের নিয়মে হিসাবে গণনা করা হয়
এই "সিগময়েড" পারসেপ্ট্রন তখন লজিস্টিক রিগ্রেশন থেকে কীভাবে আলাদা?
আমি বলব যে একটি একক স্তর সিগময়েড পার্সেপট্রন লজিস্টিক রিগ্রেশনের সমান, এই অর্থে যে উভয়ই আপডেট নিয়মে। এছাড়াও, উভয়ই পূর্বাভাসে করে। তবে মাল্টিলেয়ার পারসেপ্ট্রনগুলিতে সিগময়েড অ্যাক্টিভেশন ফাংশনটি লজিস্টিক রিগ্রেশন এবং একটি একক-স্তর পারসেপ্ট্রনের বিপরীতে কোনও অন অফ সিগন্যাল নয়, সম্ভাব্যতা ফিরিয়ে আনতে ব্যবহৃত হয়।
আমি মনে করি "পারসেপ্ট্রন" শব্দটির ব্যবহারটি কিছুটা অস্পষ্ট হতে পারে, সুতরাং আমাকে একক-স্তর পার্সেপ্টরন সম্পর্কে আমার বর্তমান বোঝার উপর ভিত্তি করে কিছু ব্যাকগ্রাউন্ড সরবরাহ করতে দিন:
ক্লাসিক পারসেপ্ট্রন নিয়ম
প্রথমত, এফ রোজেনব্ল্যাট দ্বারা ক্লাসিক অনুধাবন যেখানে আমাদের একটি পদক্ষেপ রয়েছে:
ওজন আপডেট করতে
যাতে as হিসাবে গণনা করা হয়
গ্রেডিয়েন্ট বংশোদ্ভূত
গ্রেডিয়েন্ট বংশদ্ভুত ব্যবহার করে, আমরা ব্যয়টির কার্যকারিতাটি অনুকূলকরণ (ছোট করে) করব
যেখানে আমাদের "প্রকৃত" সংখ্যা রয়েছে, তাই আমি আমাদের শ্রেণিবিন্যাসের আউটপুট থ্রেশহোল্ডের পার্থক্যের সাথে লিনিয়ার রিগ্রেশনটির সাথে এটি মূলত অভিন্ন দেখি।
এখানে, আমরা যখন ওজন আপডেট করি তখন গ্রেডিয়েন্টের নেতিবাচক দিকের দিকে পদক্ষেপ নিই
তবে এখানে, আমাদের পরিবর্তে
এছাড়াও, আমরা ক্লাসিক পার্সেপট্রন নিয়মের বিপরীতে পুরো প্রশিক্ষণ ডেটাসেটের (ব্যাচ লার্নিং মোডে) সম্পূর্ণ পাসের জন্য স্কোয়ার ত্রুটির সমষ্টি গণনা করি যা নতুন প্রশিক্ষণের নমুনাগুলি আসার সাথে সাথে ওজনকে আপডেট করে (স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত - অ্যানালগ শেখার)।
সিগময়েড অ্যাক্টিভেশন ফাংশন
এখন, এখানে আমার প্রশ্ন:
মাল্টিলেয়ার পারসেপ্ট্রনগুলিতে পার্সেসেপ্টরনগুলি সিগময়েড অ্যাক্টিভেশন ফাংশন সহ ব্যবহৃত হয়। যাতে আপডেটের নিয়মে হিসাবে গণনা করা হয়
এই "সিগময়েড" পারসেপ্ট্রন তখন লজিস্টিক রিগ্রেশন থেকে কীভাবে আলাদা?