প্রশ্নটি একটি ভুল অনুমানের অধীনে। আপনারা যা বলেছিলেন তারা "না" করতে পারে এমন অনেক লোকই করেন।
প্রকৃতপক্ষে, ব্যাপকভাবে মোতায়েন করা স্কলারন প্যাকেজে গ্রিড অনুসন্ধান বাস্তবায়ন ঠিক এটিই করে। যতক্ষণ না refit=False, এটি সম্পূর্ণ ডেটা ব্যবহার করে চূড়ান্ত মডেলটি পুনরায় প্রশিক্ষণ করবে।
আমি মনে করি কিছু হাইপারপ্যারামিটারগুলির জন্য এটি খুব পছন্দসই নাও হতে পারে, কারণ এগুলি ডেটার পরিমাণের সাথে সম্পর্কিত relative উদাহরণস্বরূপ, সিদ্ধান্তের গাছেরmin_samples_leaf প্রাক-ছাঁটাই কৌশলটি বিবেচনা করুন । আপনার যদি আরও ডেটা থাকে তবে প্রাক-ছাঁটাইটি আপনি যেমন চান তেমন সম্পাদন করতে পারে না।
তবে আবারও, বেশিরভাগ লোকেরা ক্রস-বৈধতার পরে পুরো ডেটা ব্যবহার করে পুনরায় প্রশিক্ষণ করে, যাতে তারা সর্বোত্তম মডেলটি শেষ করে।
সংযোজন: @ নীলস্ল্যাটার নীচে বলেছে যে কিছু লোক সিভির উপরে হোল্ড-আউট সম্পাদন করে। অন্য কথায়, তাদের ট্রেন-পরীক্ষা বিভাজন রয়েছে এবং তারপরে প্রশিক্ষণটিতে মডেল নির্বাচন সম্পাদন করে। তার মতে, তারা মূল প্রশিক্ষণ সেট বিভক্ত ব্যবহার করে পুনরায় প্রশিক্ষণ দেয়, তবে পরীক্ষার সেটটি নয়। চূড়ান্ত মডেল অনুমানের জন্য পরীক্ষার সেটটি ব্যবহার করা হয়। ব্যক্তিগতভাবে, আমি এটির জন্য তিনটি ত্রুটি দেখতে পাচ্ছি: (ক) এটি যে সমস্যার সমাধান করে আমি উল্লেখ করেছি কিছু হাইপারপ্যারামিটারগুলি প্রশিক্ষণের পরিমাণের উপর নির্ভরশীল যেহেতু আপনি যে কোনও উপায়ে পুনরায় প্রশিক্ষণ নিচ্ছেন, (খ) অনেকগুলি মডেল পরীক্ষা করার সময় আমি আরও পরিশীলিতকে পছন্দ করি নেস্টেড ক্রস বৈধকরণের মতো পদ্ধতি যাতে কোনও ডেটা নষ্ট না হয় এবং (গ) হোল্ড-আউট হ'ল একটি অদ্ভুত পদ্ধতি এটি নির্ধারণ করার জন্য যে আপনার কাছে খুব কম ডেটা থাকলে কোনও মডেল কীভাবে সাধারণীকরণ করবে।