আমি বারবার পড়েছি যে "লেভ-ওয়ান-আউট" ক্রস-বৈধকরণের প্রশিক্ষণের ভাঁজগুলির বৃহত ওভারল্যাপের কারণে উচ্চ বৈচিত্র রয়েছে। তবে আমি বুঝতে পারি না কেন এটি: প্রশিক্ষণ সেটগুলি প্রায় অভিন্ন হওয়ার কারণে ক্রস-বৈধকরণের পারফরম্যান্সটি খুব স্থিতিশীল (কম বৈকল্পিক) হওয়া উচিত নয়? বা আমার কী পুরোপুরি "বৈকল্পিক" ধারণাটি সম্পর্কে ভুল ধারণা রয়েছে?
আমিও সম্পূর্ণরূপে বুঝতে পারি না কীভাবে এলইউ নিরপেক্ষ হতে পারে তবে উচ্চতর বৈকল্পিকতা থাকতে পারে? যদি এলইও অনুমানটি প্রত্যাশায় সত্য অনুমানক মানের সমান হয় - তবে কীভাবে এটির উচ্চতর বৈকল্পিকতা থাকতে পারে?
দ্রষ্টব্য: আমি জানি যে এখানে একটি অনুরূপ প্রশ্ন রয়েছে: ত্রুটি উচ্চতর হওয়ার গড় গড় অনুমান সম্পর্কে কেন ছুটি-ওয়ান-আউট ক্রস-বৈধকরণ (এলইউসিভি) বৈকল্পিক? তবে যে ব্যক্তি উত্তর দিয়েছে সে মন্তব্যগুলিতে পরে বলেছে যে উর্ধ্বে থাকা সত্ত্বেও সে বুঝতে পেরেছে যে তার উত্তরটি ভুল is