এ কারণেই সম্ভবত PReLU, ELU, বা অন্যান্য ফাঁস হওয়া রিলু-জাতীয় অ্যাক্টিভেশনগুলি ব্যবহার করা আরও ভাল ধারণা যা কেবল 0 এ মারা যায় না, তবে এক্স শিখতে অক্ষম হয়ে গেলে 0.1 * x এর মতো কিছুতে পড়ে। দীর্ঘদিন ধরে আমার কাছে মনে হয়েছিল যে রিলিজগুলি হ'ল সিগময়েডের মতো ইতিহাস, যদিও কোনও কারণে লোকেরা এখনও এগুলি সহ কাগজপত্র প্রকাশ করে। কেন? আমি জানি না।
ডাইমিট্রো মিশকিন এবং অন্যান্য ছেলেরা প্রচুর পরিমাণে বিভিন্ন অ্যাক্টিভেশন প্রকারের সাথে একটি নেটওয়ার্ক পরীক্ষা করেছে, আপনার বিভিন্ন সক্রিয়করণ ফাংশন এবং অন্যান্য স্টাফের পারফরম্যান্স সম্পর্কে তাদের অনুসন্ধানগুলি দেখা উচিত। এক্সওআর-এর মতো কিছু ফাংশন, সরল আরএলইউ দিয়ে আরও ভালভাবে শিখেছে। মস্তিষ্কের শর্তে কোনও নিউরাল স্টাফ নিয়ে ভাবেন না, কারণ নিউরাল নেট খুব বেশি কাজ চলছে। Inশিক সত্য বলার জন্য পৃথিবীতে কেউই তাদের এত ভালভাবে জানে এবং বুঝতে পারে না। কেউ। জিনিসগুলি চেষ্টা করে দেখুন, নিজের আবিষ্কার করুন। মনে রাখবেন যে নিজেই রিলু ব্যবহার করা খুব সাম্প্রতিক বিকাশ এবং কয়েক দশক ধরে ক্ষেত্রের সমস্ত পিএইচডি ছেলেরা অতি-জটিল অ্যাক্টিভেশন ফাংশন ব্যবহার করেছে যা আমরা এখন কেবল হাসিতে পারি। খুব ঘন ঘন "জেনে রাখা" আপনার খারাপ ফলাফল পেতে পারে। এটি বুঝতে গুরুত্বপূর্ণ যে নিউরাল নেটওয়ার্কগুলি একটি সঠিক বিজ্ঞান নয়। গণিতে কিছুই বলে না যে নিউরাল নেটওয়ার্কগুলি আসলে তাদের মতো কাজ করবে। এটি হিউরিস্টিক। এবং তাই এটি খুব মাতাল।
FYI এমনকি পরম-মান সক্রিয়করণ কিছু সমস্যার ক্ষেত্রে ভাল ফলাফল পায়, উদাহরণস্বরূপ XOR- এর মতো সমস্যা। বিভিন্ন অ্যাক্টিভেশন ফাংশন বিভিন্ন উদ্দেশ্যে আরও উপযুক্ত। আমি সিফার -10 এ্যাবস () দিয়ে চেষ্টা করেছি এবং দেখে মনে হচ্ছে এটি আরও খারাপ হয়। যদিও, আমি এটি বলতে পারি না যে "এটি ভিজ্যুয়াল স্বীকৃতির জন্য আরও খারাপ অ্যাক্টিভেশন ফাংশন", কারণ আমি নিশ্চিত নই, উদাহরণস্বরূপ, যদি আমার প্রাক-প্রারম্ভিককরণটি এটির জন্য অনুকূল ছিল, ইত্যাদি। এটি সত্যই তুলনামূলকভাবে শিখছিল ভাল আমাকে অবাক।
এছাড়াও, বাস্তব জীবনে আপনি যে "ডেরিভেটিভস" ব্যাকপ্রপকে দিয়েছিলেন তা অবশ্যই গাণিতিক ডেরিভেটিভের সাথে মেলে না।
এমনকি আমি যতদূর বলতে পারি যে তাদের "ডেরাইভেটিভস" বলা নিষিদ্ধ করা উচিত এবং তাদের অন্য কিছু বলা শুরু করা উচিত, উদাহরণস্বরূপ, error activation functions
তাদের সাথে ঝুঁকির সম্ভাবনার দিকে আমাদের মনকে বন্ধ না করা। আপনি আসলে, উদাহরণস্বরূপ, আরএলইউ অ্যাক্টিভেশন ব্যবহার করতে পারেন তবে এক্স <0 এর জন্য ডেরিভেটিভ হিসাবে 0 এর পরিবর্তে একটি 0.1 বা কিছু সরবরাহ করতে পারেন। একটি উপায়ে, আপনার তখন একটি সরল আরএলইউ রয়েছে, তবে নিউরনগুলি "অভিযোজিততার কারণে মরে যেতে" সক্ষম হয় না। আমি এটিকে NecroRelu বলি, কারণ এটি একটি রিলু যা মারা যায় না। এবং কিছু ক্ষেত্রে (স্পষ্টভাবে বেশিরভাগ ক্ষেত্রে নয়) এটি প্লেইন LeakyReLU এর চেয়ে ভাল কাজ করে, যা আসলে x <0 এ 0.1 ডেরিভেটিভ এবং স্বাভাবিক রেলু থেকে ভাল। আমি মনে করি না যে আরও অনেকে এই জাতীয় ফাংশনটি তদন্ত করেছেন, যদিও এটি, বা এই জাতীয় কিছু সম্ভবত একটি শীতল অ্যাক্টিভেশন ফাংশন হতে পারে যা তারা গণিতে খুব বেশি কেন্দ্রীভূত হওয়ার কারণে কেউই বিবেচনা করে না।
ট্যানএইচ (এক্স) অ্যাক্টিভেশন ফাংশনটির জন্য সাধারণত যা ব্যবহৃত হয় তা হিসাবে জিনিসগুলি দ্রুত গণনা করার জন্য ডেরিভেটিভ হিসাবে 1 - ট্যানএইচ (এক্স) এর পরিবর্তে 1 - x² পাস করা স্বাভাবিক জিনিস।
এছাড়াও, মনে রাখবেন যে, আরএলইউ সমস্ত "স্পষ্টতই ভাল" এর চেয়ে বেশি নয়, উদাহরণস্বরূপ, ট্যানএইচ। তানহহ কিছু ক্ষেত্রে সম্ভবত আরও ভাল হতে পারে। ঠিক তাই, মনে হচ্ছে ভিজ্যুয়াল স্বীকৃতিতে নয়। যদিও, উদাহরণস্বরূপ, ইএলইউতে কিছুটা সিগময়েড স্নিগ্ধতা রয়েছে এবং এটি এই মুহুর্তে ভিজ্যুয়াল স্বীকৃতির জন্য সর্বাধিক পরিচিত সক্রিয়করণ ফাংশনগুলির মধ্যে একটি। আমি সত্যিই চেষ্টা করি নি, তবে আমি বাজি ধরেছি যে কেউ একই স্তর স্তরে বিভিন্ন অ্যাক্টিভেশন ফাংশন সহ বেশ কয়েকটি গ্রুপ সেট করতে পারে একটি সুবিধার জন্য। কারণ, বিভিন্ন অ্যাক্টিভেশন ফাংশন সহ বিভিন্ন যুক্তি আরও ভালভাবে বর্ণনা করা হয়। এবং কখনও কখনও আপনার সম্ভবত বিভিন্ন ধরণের মূল্যায়ন প্রয়োজন।
মনে রাখবেন যে আপনার অ্যাক্টিভেশন ক্রিয়াকলাপের ধরণের সাথে মিলে একটি অন্তর্বর্তীকরণ থাকা গুরুত্বপূর্ণ। ফুসকুড়ি রিলিজগুলির জন্য অন্য ডিআইআই প্রয়োজন যা সাধারণ রিলু, উদাহরণস্বরূপ।
সম্পাদনা: প্রকৃতপক্ষে, স্ট্যান্ডার্ড আরএলইউ আধুনিক স্থাপত্যগুলির সাথে বনাম ফাঁসযুক্ত ওভারফিটিংয়ের প্রবণতা কম বলে মনে হচ্ছে। কমপক্ষে চিত্র স্বীকৃতিতে। দেখে মনে হচ্ছে আপনি যদি প্রচুর পরিমাণে পরামিতিগুলির সাথে খুব উচ্চ নির্ভুলতার জন্য যাচ্ছেন তবে প্লেইন রিলু বনাম ফাঁস বিকল্পগুলির সাথে লেগে থাকা ভাল। তবে অবশ্যই এগুলি নিজের দ্বারা পরীক্ষা করুন। আরও নিয়মিতকরণ দেওয়া হলে কিছু ফুটো জিনিস আরও ভাল কাজ করবে।