যখন আমরা সমস্ত অ্যাক্টিভেশন স্তরগুলির জন্য রিলু ব্যবহার করি তখন গভীর কনভ্যুশনাল নিউরাল নেটওয়ার্কগুলির জন্য নেতিবাচক ওজন (পর্যাপ্ত যুগের পরে) থাকা কি সম্ভব?
যখন আমরা সমস্ত অ্যাক্টিভেশন স্তরগুলির জন্য রিলু ব্যবহার করি তখন গভীর কনভ্যুশনাল নিউরাল নেটওয়ার্কগুলির জন্য নেতিবাচক ওজন (পর্যাপ্ত যুগের পরে) থাকা কি সম্ভব?
উত্তর:
সংশোধিত লিনিয়ার ইউনিট (রিলিজ ইউনিট) কেবলমাত্র নিউরনের আউটপুটকে অ-নেতিবাচক করে তোলে । নেটওয়ার্কের পরামিতিগুলি তবে প্রশিক্ষণের ডেটার উপর নির্ভর করে ইতিবাচক বা নেতিবাচক হয়ে উঠবে এবং করবে।
এখানে এখনই দুটি কারণ যা আমি ভাবতে পারি সেগুলি ন্যায্যতা দেয় (স্বজ্ঞাত) কেন কিছু প্যারামিটারগুলি নেতিবাচক হয়ে উঠবে:
উদাহরণস্বরূপ আপনি অন্য অ্যাক্টিভেশন ফাংশনটি ব্যবহার না করা অবধি Leaky ReLU। প্রশিক্ষণের ক্ষেত্রে কতগুলি পর্বই নির্বিশেষে প্রথমটির পরে স্তরগুলির পুনরুদ্ধারযোগ্য ওজনগুলি অ-নেতিবাচক।