রিলু ফাংশনটিসাধারণত এটি ম্যাট্রিক্স-ভেক্টর পণ্য হিসাবে অন্য কিছু ফাংশনের আউটপুটটিতে উপাদান অনুসারে প্রয়োগ করা হয়। এমএলপি ব্যবহারে, সংশোধনকারী ইউনিট সম্ভবত পঠন স্তর বাদে অন্য সমস্ত অ্যাক্টিভেশন ফাংশন প্রতিস্থাপন করে। তবে আমি মনে করি আপনি যদি চান তবে আপনি সেগুলি মিশিয়ে ফেলতে পারেন।f(x)=max(0,x).
রিলু ইউনিয়নগুলি নিউরাল নেটওয়ার্কগুলিকে উন্নত করার একটি উপায় হ'ল প্রশিক্ষণ দ্রুত করা। গ্রেডিয়েন্ট গণনা খুব সহজ ( x এর চিহ্নের উপর নির্ভর করে 0 বা 1 )। এছাড়াও, একটি আরএলইউর গণনামূলক পদক্ষেপ সহজ: যে কোনও নেতিবাচক উপাদানগুলি 0.0 এ সেট করা হয় - কোনও ক্ষতিকারক, কোনও গুণ বা বিভাগীয় ক্রিয়াকলাপ।
লজিস্টিক এবং হাইপারবোলিক ট্যানজেন্ট নেটওয়ার্কগুলির গ্রেডিয়েন্টগুলি আরএলইউর ইতিবাচক অংশের চেয়ে ছোট are এর অর্থ প্রশিক্ষণের অগ্রগতির সাথে ইতিবাচক অংশটি আরও দ্রুত আপডেট হয়। যাইহোক, এটি একটি ব্যয় আসে। বাম দিকে 0 গ্রেডিয়েন্টের নিজস্ব সমস্যা রয়েছে, যার নাম "মৃত নিউরোনস", যার মধ্যে একটি গ্রেডিয়েন্ট আপডেট আগত মানগুলি একটি আরএলইউতে সেট করে যেমন আউটপুট সর্বদা শূন্য থাকে; ELU (বা Leaky ReLU, বা PReLU, ইত্যাদি) এর মতো পরিবর্তিত রিলু ইউনিট এটিকে প্রশমিত করতে পারে।
ddxReLU(x)=1∀x>0 । বিপরীতে, একটি সিগময়েড ইউনিটের গ্রেডিয়েন্ট সর্বাধিক ; অন্যদিকে, কাছাকাছি অঞ্চলে ইনপুটগুলির জন্য ভাড়া বেশি প্রায়)0.25tanh0.25<ddxtanh(x)≤1∀x∈[−1.31,1.31]