এখানে উত্তরটি বিলুপ্ত হওয়া এবং বিস্ফোরিত গ্রেডিয়েন্টকে বোঝায় যেগুলি অ- sigmoid
সক্রিয় ক্রিয়াকলাপে ছিল তবে আমার ধারণা, Relu
এর একটি অসুবিধা রয়েছে এবং এটি তার প্রত্যাশিত মান। আউটপুটটির জন্য কোনও সীমাবদ্ধতা নেই Relu
এবং সুতরাং এর প্রত্যাশিত মানটি শূন্য নয়। আমি সময় মনে রাখবেন সামনে জনপ্রিয়তা Relu
যে tanh
সবচেয়ে জনপ্রিয় ছিল মধ্যে মেশিন বিশেষজ্ঞদের শেখার বদলে sigmoid
। কারণটি ছিল যে এর প্রত্যাশিত মানটি tanh
শূন্যের সমান এবং এটি নিউরাল জালে আরও গভীর হতে গভীর স্তরগুলিতে শিখতে সহায়তা করে। Relu
এর বৈশিষ্ট্যটি নেই, তবে আমরা যদি এর ব্যয়কর সুবিধাটি একপাশে রাখি তবে এটি কেন এত ভাল কাজ করছে। তদুপরি, আমি অনুমান করি যে ডেরাইভেটিভও প্রভাবিত হতে পারে। কারণ অ্যাক্টিভেশন (আউটপুটRelu
) আপডেটের বিধি গণনা করার জন্য জড়িত।
CNN
আউটপুটটি relu
সাধারণ হয় না? কমপক্ষে আমি এটি কখনও দেখিনি।