আমি জানি যে ক্রস-বৈধতার বাইরে হাইপারপ্যারামিটার টিউনিং করা বাহ্যিক বৈধতার পক্ষপাতদুষ্ট-উচ্চতর অনুমানের দিকে পরিচালিত করতে পারে, কারণ আপনি কার্য সম্পাদন পরিমাপ করতে যে ডেটাসেটটি ব্যবহার করেন একই বৈশিষ্ট্যগুলি সুর করার জন্য আপনি ব্যবহার করেছিলেন।
আমি যা ভাবছি তা হ'ল এটি কতটা খারাপ । বৈশিষ্ট্য নির্বাচনের ক্ষেত্রে এটি কীভাবে খারাপ হবে তা আমি বুঝতে পারি, কারণ এটি আপনাকে টিউন করার জন্য বিশাল সংখ্যক পরামিতি দেয়। তবে আপনি যদি লাসো (যেমন কেবলমাত্র একটি প্যারামিটার, নিয়ন্ত্রণ নিয়ন্ত্রণ), বা বৈশিষ্ট্য নির্বাচন ছাড়াই একটি এলোমেলো বন (যার কয়েকটি পরামিতি ছাড়া শব্দের বৈশিষ্ট্যগুলি যুক্ত / বাদ দেওয়ার মতো নাটকীয় কিছুই থাকতে পারে) এর মতো কিছু ব্যবহার করছেন?
এই পরিস্থিতিতে, আপনি প্রশিক্ষণের ত্রুটি সম্পর্কে আপনার অনুমান কতটা খারাপ আশাবাদী হতে পারে?
আমি এ সম্পর্কিত যে কোনও তথ্যের প্রশংসা করব - কেস স্টাডি, কাগজপত্র, অ্যানেকটাটা ইত্যাদি Thanks ধন্যবাদ!
সম্পাদনা: পরিষ্কার করার জন্য, আমি প্রশিক্ষণের ডেটাতে মডেল পারফরম্যান্সের অনুমানের কথা বলছি না (অর্থাত্ ক্রস বৈধতা মোটেই ব্যবহার করছি না)। আমি ক্রস বৈধতা ব্যবহার মানে শুধুমাত্র প্রতিটি মডেল কর্মক্ষমতা অনুমান করার জন্য কিন্তু "ক্রস বৈধতা এর hyperparameter টিউনিং বাহিরে" দ্বারা না একটি বাইরের সহ দ্বিতীয় ক্রস বৈধতা লুপ সঠিক hyperparameter টিউনিং পদ্ধতি মধ্যে overfitting জন্য (থেকে স্বতন্ত্র হিসাবে প্রশিক্ষণ প্রক্রিয়া চলাকালীন overfitting)। যেমন উত্তর এখানে দেখুন ।