ধরুন আপনি পুনরাবৃত্তির সংখ্যার মাধ্যমে উদ্দেশ্য ফাংশনটি হ্রাস করার চেষ্টা করছেন। এবং বর্তমান মান । প্রদত্ত ডেটা সেটে কোনও "অপরিবর্তনীয় ত্রুটি" নেই এবং আপনি প্রশিক্ষণ ডেটার জন্য হ্রাস করতে পারেন । এখন আপনার এটি করার দুটি উপায় রয়েছে।0.0100.00.0
প্রথম উপায় হ'ল "বৃহত্তর শেখার হার" এবং কয়েকটি পুনরাবৃত্তি। ধরুন আপনি প্রতিটি পুনরাবৃত্তিতে দ্বারা লোকসান হ্রাস করতে পারেন , তারপরে, পুনরাবৃত্তিতে, আপনি হ্রাস করতে পারবেন ।10 0.010.0100.0
দ্বিতীয় উপায়টি হ'ল "ধীরে ধীরে শেখার হার" তবে আরও পুনরাবৃত্তি হবে। মনে করুন আপনি প্রতিটি পুনরাবৃত্তির মধ্যে লোকসানটি দ্বারা হ্রাস করতে পারেন এবং আপনার প্রশিক্ষণের ডেটাতে 0.0 লোকসান পেতে আপনার পুনরাবৃত্তি প্রয়োজন ।1001.0100
এখন এই সম্পর্কে চিন্তা করুন: দুটি পদ্ধতির সমান? এবং না হলে অপ্টিমাইজেশন প্রসঙ্গে এবং মেশিন লার্নিং প্রসঙ্গে আরও ভাল কি?
ইন অপ্টিমাইজেশান সাহিত্য , দুটি একই। যেহেতু তারা উভয়ই অনুকূল সমাধানে রূপান্তর করে । অন্যদিকে, মেশিন লার্নিংয়ে তারা সমান নয়। কারণ বেশিরভাগ ক্ষেত্রে আমরা প্রশিক্ষণে সেটটি ক্ষতিপূরণ করি না যা অত্যধিক ফিটনেসের কারণ হবে।0
আমরা "মোটা স্তর গ্রিড অনুসন্ধান" হিসাবে প্রথম পদ্ধতির, এবং "সূক্ষ্ম স্তর গ্রিড অনুসন্ধান" হিসাবে দ্বিতীয় পদ্ধতির বিষয়ে ভাবতে পারি। দ্বিতীয় পদ্ধতির সাধারণত আরও ভাল কাজ করে তবে আরও পুনরাবৃত্তির জন্য আরও বেশি গণনার শক্তি প্রয়োজন।
অতিরিক্ত-ফিটিং প্রতিরোধের জন্য, আমরা বিভিন্ন জিনিস করতে পারি, প্রথম উপায়টি পুনরাবৃত্তির সংখ্যাকে সীমাবদ্ধ করা হবে, ধরুন আমরা প্রথম পদ্ধতির ব্যবহার করছি, আমরা পুনরাবৃত্তির সংখ্যা 5 হতে সীমিত করব, শেষে, প্রশিক্ষণের ডেটাগুলির জন্য ক্ষয় । (বিটিডাব্লু), এটি অপটিমাইজেশন দৃষ্টিকোণ থেকে খুব আশ্চর্যজনক হবে , যার অর্থ আমরা ভবিষ্যতে আমাদের সমাধানটি উন্নত করতে পারি / এটি রূপান্তরিত হয় না, তবে আমরা তা বেছে নিই না optim অপ্টিমাইজেশনে সাধারণত আমরা উদ্দেশ্যমূলক কার্যক্রমে স্পষ্টভাবে বাধা বা দন্ডের শর্তাদি যুক্ত করি, তবে সাধারণত পুনরাবৃত্তির সংখ্যা সীমাবদ্ধ করে না))50
অন্যদিকে, আমরা দ্বিতীয় পদ্ধতিটিও ব্যবহার করতে পারি: যদি আমরা শিখার হারকে ছোট বলে নির্ধারণ করি তবে প্রতিটি পুনরাবৃত্তির জন্য কমিয়ে আনুন, যদিও আমাদের কাছে প্রচুর পরিমাণে পুনরাবৃত্তি পুনরাবৃত্তি বলে , আমরা এখনও ক্ষয়টি কমিয়ে ।500 0.00.15000.0
এ কারণেই ছোট শিক্ষার হার "আরও নিয়মিতকরণের" সমান।
পরীক্ষামূলক ডেটা ব্যবহার করে বিভিন্ন শিক্ষার হার ব্যবহার করার উদাহরণ এখানে xgboost
। এর অর্থ eta
বা n_iterations
অর্থ কী তা জানতে দয়া করে দুটি লিংক চেক করুন ।
ট্রি বুস্টার জন্য পরামিতি
এক্সজিবিস্ট কন্ট্রোল ওভারফিটিং
একই সংখ্যার পুনরাবৃত্তির জন্য, বলুন । একটি ছোট শিক্ষার হার হ'ল "আন্ডার-ফিটিং" (বা মডেলটির "উচ্চ পক্ষপাত" আছে), এবং একটি বড় শিক্ষার হার "ওভার-ফিটিং" (বা মডেলটির "উচ্চ বৈকল্পিকতা" রয়েছে)।50
পুনশ্চ. আন্ডার-ফিটিংয়ের প্রমাণ উভয়ই প্রশিক্ষণ এবং পরীক্ষার সেটে বড় ত্রুটি রয়েছে এবং প্রশিক্ষণ এবং পরীক্ষার জন্য ত্রুটির বক্ররেখা একে অপরের কাছাকাছি রয়েছে। ওভার-ফিটিংয়ের লক্ষণ হ'ল ট্রেনিং সেটের ত্রুটি খুব কম এবং পরীক্ষার সেটটি খুব বেশি, দুটি বক্ররেখা একে অপরের থেকে অনেক দূরে।