আমি বিশ্বাস করি উত্তরটি দৃশ্যের উপর নির্ভরশীল।
অপারেটর এফ হিসাবে এনএন (নিউরাল নেটওয়ার্ক) বিবেচনা করুন, যাতে F (ইনপুট) = আউটপুট । যে ক্ষেত্রে এই সম্পর্কটি রৈখিক তাই एफ (এ * ইনপুট) = এ * আউটপুট , তবে আপনি ইনপুট / আউটপুটটিকে তাদের কাঁচা ফর্মের মধ্যে অস্বাভাবিক রেখে দিতে বেছে নিতে পারেন বা উভয়কে এ এড়িয়ে দেওয়ার জন্য স্বাভাবিক করতে পারেন স্পষ্টতই এই রৈখিক ধারণাটি হ'ল শ্রেণিবদ্ধকরণ কার্যগুলিতে লঙ্ঘন করা, বা প্রায় কোনও কার্য যা সম্ভাবনার সম্ভাবনা দেয়, যেখানে এফ (এ * ইনপুট) = 1 * আউটপুট
অনুশীলনে, নরমালাইজেশন নন-ফিটযোগ্য নেটওয়ার্কগুলিকে ফিটযোগ্য হতে দেয়, যা পরীক্ষক / প্রোগ্রামারদের পক্ষে অত্যন্ত গুরুত্বপূর্ণ cruc তবুও, স্বাভাবিককরণের সুনির্দিষ্ট প্রভাব কেবলমাত্র নেটওয়ার্ক আর্কিটেকচার / অ্যালগরিদমের উপর নির্ভর করবে না, তবে ইনপুট এবং আউটপুটটির ক্ষেত্রে পরিসংখ্যানের পূর্বেও নির্ভর করবে।
আরও বেশি, ব্ল্যাক-বাক্স ফ্যাশনে এনএন প্রায়শই খুব কঠিন সমস্যাগুলি সমাধানের জন্য প্রয়োগ করা হয় যার অর্থ অন্তর্নিহিত সমস্যাটির খুব খারাপ সংখ্যক পরিসংখ্যানিক গঠন হতে পারে, যার ফলে প্রযুক্তিগত সুবিধা (কল্পনাপ্রসূত হয়ে ওঠে) স্বাভাবিককরণের প্রভাবের মূল্যায়ন করা শক্ত করে তোলে পরিসংখ্যান উপর তার প্রভাব উপর আধিপত্য।
পরিসংখ্যানগত অর্থে, নর্মালাইজেশন এমন প্রকরণকে সরিয়ে দেয় যা আউটপুট পূর্বাভাস দেওয়ার ক্ষেত্রে অ-কার্যকারিতা বলে মনে করা হয়, যাতে এনএনকে ভবিষ্যদ্বাণীকারী হিসাবে এই প্রকরণটি শিখতে বাধা দিতে পারে ( এনএন এই প্রকরণটি দেখায় না, তাই এটি ব্যবহার করতে পারে না )।