একটি ম্যাক্সআউট ইউনিট টুকরোর্ধ্ব লিনিয়ার, উত্তোলন ফাংশন কে টুকরো টুকরো সহ শিখতে পারে। 1
সুতরাং যখন কে 2 হয়, আপনি রিলু, পরম আরএলইউ, ফাঁসযুক্ত আরএলইউ ইত্যাদি প্রয়োগ করতে পারেন বা এটি কোনও নতুন ফাংশন বাস্তবায়ন করতে শিখতে পারে। যদি কে 10 বলে নেওয়া হয় তবে আপনি প্রায় উত্তল ক্রিয়াটি শিখতে পারেন।
যখন কে 2:
ম্যাক্সআউট নিউরন ফাংশনটি । ReLU এবং Leaky ReLU উভয়ই এই ফর্মের একটি বিশেষ কেস (উদাহরণস্বরূপ, ReLU এর জন্য আমাদের )। ম্যাকসআউট নিউরন তাই একটি আরএলইউ ইউনিট (অপারেশনের রৈখিক ব্যবস্থা, কোন স্যাচুরেশন) এর সমস্ত সুবিধা ভোগ করে এবং এর অসুবিধাগুলি নেই (মারা যাচ্ছেন রিলু)।max(wT1x+b1,wT2x+b2)w1,b1=0
তবে, আরএলইউ নিউরনের বিপরীতে এটি প্রতিটি একক নিউরনের জন্য পরামিতির সংখ্যাকে দ্বিগুণ করে, যার ফলে সর্বোচ্চ পরামিতিগুলির সংখ্যার সৃষ্টি হয়। 2
আপনি এখানে বিশদটি পড়তে পারেন:
1. ডিএল বই
২. http://cs231n.github.io/neura-networks-1