একটি ব্লগ পোস্টে , আমি দাবিটি পেয়েছি
"আমি বিশ্বাস করি যে ডাব্লুজি কোচরান প্রথম পয়েন্ট আউট (প্রায় ১৯′০ এর দশকে) যে একটি পর্যবেক্ষণমূলক সেটিংয়ে আত্মবিশ্বাসের ব্যবধানের সাথে ছোট ছোট নমুনার আকারের ফলে শূন্য কভারেজের কাছাকাছি পর্যাপ্ত পরিমাণে যথেষ্ট পরিমাণে নমুনা সরবরাহ করা ভাল কভারেজের ফলস্বরূপ!"
এখন আমি ধরে নিয়েছি যে সিআই প্রস্থের নমুনার আকার বাড়ার সাথে 0 এর কাছে পৌঁছানো উচিত, তবে কভারেজটি একই সাথে আরও খারাপ হতে পারে তা আমার পক্ষে বিশ্বাসযোগ্য নয়। এই দাবি কি সত্য এবং কোন পরিস্থিতিতে? নাকি আমি এটি ভুলভাবে লিখছি?
আমি 10000 থেকে 1000000 (এক-নমুনা টি-টেস্ট, 95% সিআই), প্রতিটি নমুনা আকারে 1000 রান সহ নমুনা আকারের সাথে এলোমেলোভাবে বিতরণ করা ডেটা ব্যবহার করে একটি সিমুলেশন চালিয়েছি এবং উচ্চতর নমুনার আকারের জন্য কভারেজ কোনও খারাপ হয়নি did (পরিবর্তে, আমি প্রত্যাশিত কাছাকাছি-ধ্রুবক ~ 5% ত্রুটি হারটি পেয়েছি)।