আপনি যদি ডেটা ব্যতীত অন্য কোনও বাধা চাপান না তবে আন্ডারডেটরাইমিন্ডড সিস্টেমগুলি কেবলমাত্র সীমাবদ্ধ হয়। আপনার উদাহরণের সাথে আঁকিয়ে রাখুন, 4-ডিগ্রি পয়েন্টে 4-ডিগ্রি বহুবচন ফিট করার অর্থ আপনার কাছে এক ডিগ্রি স্বাধীনতা রয়েছে যা তথ্য দ্বারা সীমাবদ্ধ নয়, যা আপনাকে সমানভাবে ভাল সমাধানের একটি রেখা (সহগুণ স্থানে) রেখে দেয়। তবে সমস্যাটিকে ট্র্যাটেবল করে তুলতে আপনি বিভিন্ন নিয়মিতকরণ কৌশল ব্যবহার করতে পারেন। উদাহরণস্বরূপ, সহগের এল 2-আদর্শ (অর্থাত্ স্কোয়ারের যোগফল) এর উপর জরিমানা চাপিয়ে আপনি নিশ্চিত করেছেন যে সর্বদা সর্বোচ্চ ফিটনেসের সাথে একটি অনন্য সমাধান রয়েছে।
নিউরাল নেটওয়ার্কগুলির জন্য নিয়মিতকরণ কৌশলগুলিও বিদ্যমান, তাই আপনার প্রশ্নের সংক্ষিপ্ত উত্তর হ্যাঁ, আপনি পারেন। বিশেষ আগ্রহের মধ্যে একটি হ'ল "ড্রপআউট" নামক একটি কৌশল, যাতে ওজনের প্রতিটি আপডেটের জন্য, আপনি এলোমেলোভাবে নেটওয়ার্ক থেকে নোডের একটি নির্দিষ্ট উপসেট 'ড্রপ' করেন। এটি হল, লার্নিং অ্যালগরিদমের সেই নির্দিষ্ট পুনরাবৃত্তির জন্য, আপনি ভান করছেন যে এই নোডের অস্তিত্ব নেই। ড্রপআউট ছাড়াই নেট ইনপুটটির খুব জটিল উপস্থাপনা শিখতে পারে যা ঠিক সমস্ত ডান একসাথে কাজ করা সমস্ত নোডের উপর নির্ভর করে। এ জাতীয় উপস্থাপনাগুলি প্রশিক্ষণের ডেটা সাধারণ করে তোলার পরিবর্তে প্রশিক্ষণের ডেটা 'মুখস্ত' করতে পারে। ড্রপআউট নিশ্চিত করে যে প্রশিক্ষণ ডেটা ফিট করার জন্য নেটওয়ার্ক একবারে সমস্ত নোড ব্যবহার করতে পারে না; কিছু নোড অনুপস্থিত থাকা অবস্থায়ও এটি উপাত্তকে উপস্থাপন করতে সক্ষম হতে হবে,
এছাড়াও নোট করুন যে ড্রপআউট ব্যবহার করার সময়, প্রশিক্ষণের সময় যে কোনও নির্দিষ্ট সময়ে স্বাধীনতার ডিগ্রি আসলে প্রশিক্ষণের নমুনার সংখ্যার চেয়ে কম হতে পারে যদিও মোট আপনি প্রশিক্ষণের নমুনার চেয়ে বেশি ওজন শিখছেন।