মূল কারণটি হ'ল কে-ফোল্ড ক্রস-বৈধকরণের প্রাক্কলনকারীটির একক হোল্ড-আউট সেট প্রাক্কলিতকারীর চেয়ে কম বৈকল্পিক রয়েছে, যা উপলব্ধ ডেটার পরিমাণ সীমিত হলে খুব গুরুত্বপূর্ণ হতে পারে। আপনার যদি একটি একক হোল্ড আউট সেট থাকে, যেখানে 90% ডেটা প্রশিক্ষণের জন্য এবং 10% পরীক্ষার জন্য ব্যবহৃত হয়, পরীক্ষার সেটটি খুব ছোট, তাই ডেটার বিভিন্ন নমুনার জন্য পারফরম্যান্সের প্রাক্কলনে অনেক পার্থক্য থাকবে, বা ডেটা বিভিন্ন পার্টিশনের জন্য প্রশিক্ষণ এবং পরীক্ষা সেট গঠন। কে-ফোল্ড বৈধতা কে বিভিন্ন পার্টিশনের ওভারেজ করে এই বৈকল্পিকতা হ্রাস করে, সুতরাং পারফরম্যান্স অনুমান ডেটা বিভাজনের ক্ষেত্রে কম সংবেদনশীল। আপনি বারবার কে-ভাঁজ ক্রস-বৈধকরণের মাধ্যমে আরও এগিয়ে যেতে পারেন, যেখানে ক্র-বৈধকরণ ডেটাতে পৃথক পার্টিশন ব্যবহার করে কে সাব-সেট গঠন করা হয়,
তবে নোট করুন, মডেল ফিটিং পদ্ধতির সমস্ত পদক্ষেপ (মডেল নির্বাচন, বৈশিষ্ট্য নির্বাচন ইত্যাদি) ক্রস-বৈধকরণ পদ্ধতির প্রতিটি ভাগে স্বাধীনভাবে সম্পাদন করতে হবে, বা ফলস্বরূপ পারফরম্যান্সের অনুমানটি আশাবাদী পক্ষপাতদুষ্ট হবে।