নিউরাল নেটওয়ার্কগুলিতে নিয়মিতকরণ পদ্ধতি নির্বাচন করা


9

নিউরাল নেটওয়ার্কগুলি প্রশিক্ষণ দেওয়ার সময়, নেটওয়ার্কটি নিয়মিত করার জন্য কমপক্ষে 4 টি উপায় রয়েছে:

  • এল 1 নিয়মিতকরণ
  • এল 2 নিয়মিতকরণ
  • বাদ পড়া
  • ব্যাচ নরমালাইজেশন

    অবশ্যই ওজন ভাগ করে নেওয়া এবং সংযোগের সংখ্যা হ্রাস করার মতো অন্যান্য জিনিস, যা কঠোর অর্থে নিয়মিতকরণ নাও হতে পারে।

    তবে কীভাবে কেউ এই নিয়মিতকরণের কোনটি ব্যবহার করবেন তা চয়ন করবেন? "কেবলমাত্র সমস্ত কিছু চেষ্টা করুন এবং দেখুন কী কাজ করে" এর চেয়েও আরও মূলনীতি আছে কি?


  • 3
    নিউরাল নেটওয়ার্কগুলির কি নীতিমালা রয়েছে? ব্ল্যাক বক্স পদ্ধতির নীতিটি হ'ল সবকিছু চেষ্টা করা এবং কী কাজ করে তা দেখার জন্য
    ডারিন টমাস

    এবং এটি বেশ দুঃখজনক, আপনি খুঁজে পাচ্ছেন না?
    অ্যালেক্স

    উত্তর:


    6

    নিউরাল নেটওয়ার্কগুলিতে নিয়মিতকরণের ধরণের মধ্যে সিদ্ধান্ত নিতে আপনাকে সহায়তা করার জন্য কোনও শক্তিশালী, সঠিকভাবে নথিভুক্ত নীতি নেই। আপনি এমনকি নিয়মিতকরণ কৌশলগুলি একত্রিত করতে পারেন, আপনাকে কেবল একটি চয়ন করতে হবে না।

    অভিজ্ঞতার ভিত্তিতে একটি কার্যক্ষম পদ্ধতির ভিত্তিতে এবং বিভিন্ন সমস্যাযুক্ত ডোমেনগুলিতে কী কী ভাল ফলাফল দিয়েছে তা দেখার জন্য সাহিত্য এবং অন্যান্য ব্যক্তির ফলাফলের ভিত্তিতে অনুসরণ করা যেতে পারে। এটি মাথায় রেখে, বিস্তৃত সমস্যার জন্য ড্রপআউট খুব সফল প্রমাণিত হয়েছে এবং আপনি যা চেষ্টা করছেন তা নির্বিশেষে আপনি সম্ভবত এটি একটি ভাল প্রথম পছন্দ হিসাবে বিবেচনা করতে পারেন।

    এছাড়াও কখনও কখনও কেবল আপনি যে অপশনটির সাথে পরিচিত সেটিকে বেছে নিতে সাহায্য করতে পারেন - আপনি যে কৌশলগুলি বোঝেন সেগুলি নিয়ে কাজ করা এবং তার সাথে অভিজ্ঞতা থাকতে পারে এমন বিভিন্ন বিকল্পের পুরো দখল ব্যাগ চেষ্টা করার চেয়ে ভাল ফলাফল পেতে পারে যেখানে আপনি কোনও প্যারামিটারের জন্য কী পরিমাণ বাড়ানোর চেষ্টা করবেন তা নিশ্চিত নন । একটি মূল সমস্যা হ'ল কৌশলগুলি অন্যান্য নেটওয়ার্ক পরামিতিগুলির সাথে ইন্টারপ্লে করতে পারে - উদাহরণস্বরূপ, আপনি ড্রপআউট শতাংশের উপর নির্ভর করে ড্রপআউট সহ স্তরগুলির আকার বাড়াতে চাইতে পারেন।

    অবশেষে, আপনি যে নিয়মিতকরণ কৌশলগুলি ব্যবহার করছেন তা অত্যধিক বিষয় নয় , কেবলমাত্র আপনি নিজের সমস্যাটি বুঝতে পেরেছেন এবং মডেল যখন এটি অত্যধিক উপযোগী হয় এবং আরও নিয়মিতকরণের সাথে কী করতে পারেন spot বা তদ্বিপরীত, যখন এটি উপযুক্ত নয় এবং আপনার নিয়মিতকরণের ব্যয় করা উচিত spot


    3

    নিয়ন্ত্রণ করার পদ্ধতি

    নিম্নলিখিত 4 টি কৌশলগুলির জন্য, এল 1 নিয়মিতকরণ এবং এল 2 নিয়মিতকরণ এগুলি নিয়মিতকরণের একটি পদ্ধতি হতে হবে তা বলা বাহুল্য। তারা ওজন সঙ্কুচিত। ওজন বেশি গুরুত্ব পেলে এল 1 অল্প পরিমাণ ওজন সঙ্কুচিত করার দিকে মনোনিবেশ করবে।

    অস্থায়ীভাবে নিউরনগুলি বাদ দিয়ে ড্রপআউট ওভারফিটিং প্রতিরোধ করে। শেষ পর্যন্ত, এটি সমস্ত ওজনকে গড় হিসাবে গণনা করে যাতে কোনও নির্দিষ্ট নিউরনের ওজন খুব বেশি না হয় এবং তাই এটি নিয়মিতকরণের একটি পদ্ধতি।

    ব্যাচের সাধারণকরণ নিয়মিতকরণের পদ্ধতি হওয়া উচিত নয় কারণ এর মূল উদ্দেশ্য একটি ব্যাচ নির্বাচন করে প্রশিক্ষণের গতি বাড়ানো এবং ওজনকে 0 এর নিকটে বিতরণ করতে বাধ্য করা, খুব বড় নয়, খুব ছোট নয়।

    এটি নির্বাচন করা

    আমার জন্য, মিনি-ব্যাচটি একটি আবশ্যক কারণ এটি প্রক্রিয়াটি দ্রুত করতে এবং প্রতিবার নেটওয়ার্কের কার্যকারিতা উন্নত করতে পারে।

    এল 1 এবং এল 2 উভয়ই সমান এবং আমি ছোট নেটওয়ার্কে এল 1 কে পছন্দ করব।

    আদর্শভাবে, যদি কোনও বড় প্রকরণের সমস্যা বা অত্যধিক ফিটনেস থাকে তবে ড্রপআউট প্রয়োগ করা উচিত।

    সর্বশেষে তবে সর্বনিম্ন নয়, আমি নীল স্লেটারের সাথে একমত হয়েছি যে এটি পরিস্থিতির উপর নির্ভর করে এবং কখনই সর্বোত্তম সমাধান হতে পারে না।

    আমি আপনাকে আরও তথ্যের জন্য এটি পড়তে সুপারিশ। এটি একটি খুব ভাল উপাদান। http://neuralnetworksanddeeplearning.com/chap3.html


    -1

    অতিরিক্ত হাইপারপ্যারামিটার হিসাবে সেই অ্যালগরিদমিক পছন্দগুলি দেখুন এবং আপনার অন্যান্য হাইপারপ্রেমিটারগুলির জন্য ঠিক সেভাবেই সেগুলি অনুকূল করুন। সাধারণত যদিও এর জন্য আরও ডেটা প্রয়োজন হবে।


    2
    হাই অ্যালেক্স, ডিএসএসই তে স্বাগতম এটি এমন একটি প্রশ্নোত্তর সাইট যা ভোটিংয়ের মাধ্যমে শীর্ষে ভাসমান ধনী উত্তর রয়েছে। কেউ আপনাকে ভোট দিয়েছে, সম্ভবত যেহেতু আপনার উত্তরটি খুব সংক্ষিপ্ত এবং সাধারণত সমাধানটির ব্যাখ্যা দিচ্ছে (উদাহরণস্বরূপ) হাইপারপ্যারামিটারগুলির বিবরণ ব্যাখ্যা করতে চাইছেন না, এটি একটি শব্দ যা মূল পোস্টার দ্বারা ব্যবহৃত হয়নি।
    মার্কাস ডি
    আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
    Licensed under cc by-sa 3.0 with attribution required.