16 ReLU অ্যাক্টিভেশন ফাংশনটির ডেরাইভেটিভ কী হিসাবে সংজ্ঞায়িত হয়েছে: ReLU(x)=max(0,x)ReLU(x)=max(0,x) এ ফাংশনটিতে বিরতি রয়েছে এমন বিশেষ ক্ষেত্রে কী হবে ?x=0x=0 self-study neural-networks — টম হেল সূত্র
17 ডেরাইভেটিভ হ'ল: f(x)={01if x<0if x>0f(x)={0if x<01if x>0 এবং ।x=0x=0 এটি এ অপরিজ্ঞাত হওয়ার কারণ হ'ল এর বাম এবং ডান ডেরিভেটিভ সমান নয়।x=0x=0 — জিম সূত্র 1 0011x=0x=0 2 কনভেনশনটি হ'ল drdx = 1 (x> 0) — নিউরোগ্য 123 @ টমহেল কেন ব্যবহার করবেন নাf(0)=12f(0)=12 3 প্রণালী দ্বারা @TomHale এ Nouroz রহমানের উত্তর দেখার quora.com/... : "[...] বিল্ট-ইন আমার দৃশ্যে, মধ্যে গ্রন্থাগার ফাংশন (উদাহরণস্বরূপ: tf.nn.relu()) এ ব্যুৎপন্ন এক্স = 0 শূন্য নেওয়া হয় একটি sparser নিশ্চিত করার ম্যাট্রিক্স ... " — জিম