যখন


15

যাক {Xi}i=1n IID র্যান্ডম মান গ্রহণ ভেরিয়েবল একটি পরিবার হতে [0,1] , একটি গড় থাকার μ এবং ভ্যারিয়েন্স σ2 । গড়, ব্যবহার করার জন্য একটি সহজ আস্থা ব্যবধান σ যখনই পরিচিত, দেওয়া হয়

P(|X¯μ|>ε)σ2nε21nε2(1).

এছাড়াও, কারণ X¯μσ/n এস্টিপটোটিকভাবে স্ট্যান্ডার্ড নরমাল এলোমেলো ভেরিয়েবল হিসাবে বিতরণ করা হয়, সাধারণ বিতরণটি প্রায়শই একটি আনুমানিক আস্থা অন্তর "নির্মাণ" করতে ব্যবহৃত হয়।


একাধিক-পছন্দ উত্তর পরিসংখ্যান পরীক্ষায়, আমাকে যখনই n 30 হয় পরিবর্তে এই সান্নিধ্যটি ব্যবহার করতে হয়েছিল । আনুমানিক ত্রুটি পরিমিত না হওয়ায় আমি এটির সাথে সর্বদা খুব অস্বস্তি বোধ করেছি (আপনি যত কল্পনা করতে পারেন তার চেয়ে বেশি)।(1)n30


  • চেয়ে সাধারণ আনুমানিকতা কেন ব্যবহার করবেন (1)?

  • আমি আর চাই না, অন্ধভাবে নিয়মটি প্রয়োগ করুন n30। এমন কোনও ভাল রেফারেন্স রয়েছে যা আমাকে তা করতে অস্বীকার করে এবং উপযুক্ত বিকল্প সরবরাহ করতে সহায়তা করতে পারে? ( (1) আমি উপযুক্ত বিকল্প হিসাবে বিবেচনা করি তার একটি উদাহরণ))

এখানে, যখন σ এবং E[|X|3] অজানা, তারা সহজেই আবদ্ধ।

দয়া করে নোট করুন যে আমার প্রশ্নটি একটি বিশেষত আত্মবিশ্বাসের ব্যবধানগুলি সম্পর্কে একটি রেফারেন্স অনুরোধ এবং তাই এখানে এবং এখানে আংশিক নকল হিসাবে প্রস্তাবিত প্রশ্নগুলির চেয়ে পৃথক । সেখানে এর উত্তর দেওয়া হয়নি।


2
আপনি পড়তা শাস্ত্রীয় রেফারেন্স পাওয়া উন্নত করতে হবে এবং এটা সত্য যে কাজে লাগান পারে Xi রয়েছি (0,1) যা আপনি লক্ষ্য মুহূর্ত সম্পর্কে তথ্য দেয়। আমি বিশ্বাস করি যে জাদুকরী হাতিয়ারটি হবে বেরি-এসিন উপপাদ্য!
ইয়ভেস

1
এই সীমার সাথে, বৈকল্পিক 0.25 এর চেয়ে বেশি হতে পারে না, 1 এর চেয়ে অনেক ভাল, তাই না?
কার্লো

উত্তর:


3

সাধারণ আনুমানিক ব্যবহার কেন?

এটি এতটা সহজ যে এটি কম তথ্যের চেয়ে বেশি তথ্য ব্যবহার করা সর্বদা ভাল। সমীকরণ (1) চেবিশেভের উপপাদ্য ব্যবহার করে । দ্রষ্টব্য, এটি কীভাবে আপনার বিতরণের আকার সম্পর্কে কোনও তথ্য ব্যবহার করে না, অর্থাত এটি প্রদত্ত বৈকল্পিকতা সহ কোনও বিতরণের জন্য কাজ করে। অতএব, আপনি যদি আপনার বিতরণের আকার সম্পর্কে কিছু তথ্য ব্যবহার করেন তবে আপনাকে অবশ্যই আরও ভাল আনুমানিকতা পেতে হবে। যদি আপনি জানতেন যে আপনার বিতরণটি গাউসিয়ান, তবে এই জ্ঞানটি ব্যবহার করে আপনি আরও ভাল অনুমান পাবেন।

যেহেতু, আপনি ইতিমধ্যে কেন্দ্রীয় সীমাবদ্ধ উপপাদ্য প্রয়োগ করছেন, তাই কেন গাউসের সীমানাটির সীমানা ব্যবহার করবেন না? এগুলি আরও ভাল, প্রকৃতপক্ষে আরও শক্ত (বা তীক্ষ্ণ) হতে চলেছে কারণ এই অনুমানগুলি আকৃতির জ্ঞানের উপর ভিত্তি করে যা তথ্যের অতিরিক্ত অংশ।

থাম্ব 30 এর নিয়মটি একটি পৌরাণিক কাহিনী, যা নিশ্চিতকরণ পক্ষপাত থেকে উপকৃত হয় । এটি কেবল একটি বই থেকে অন্য বইতে অনুলিপি করে চলেছে। একবার আমি 1950 এর দশকে একটি কাগজে এই নিয়মের পরামর্শ দেওয়ার একটি রেফারেন্স পেয়েছি। এটি কোনও ধরণের দৃ any় প্রমাণ ছিল না, যেমনটি আমি মনে করি। এটি একরকম অভিজ্ঞতামূলক অধ্যয়ন ছিল। মূলত, এটি ব্যবহারের একমাত্র কারণ হ'ল এটি সাজানোর কাজ করে। আপনি এটি প্রায়ই খারাপভাবে লঙ্ঘন করতে দেখেন না।

আপডেট করুন জ্যাকারি আর স্মিথ এবং ক্রেগ এস ওয়েলস " কেন্দ্রীয় সীমাবদ্ধ তত্ত্ব এবং নমুনা আকার " এর কাগজটি সন্ধান করুন । তারা বিভিন্ন ধরণের বিতরণের জন্য সিএলটি-তে রূপান্তরিত করার একটি অভিজ্ঞতামূলক গবেষণা উপস্থাপন করে। 30 নম্বর ম্যাজিক অবশ্যই অনেক ক্ষেত্রে কাজ করে না।


বোধগম্য ব্যাখ্যার জন্য +1। তবে কি এমন তথ্য ব্যবহারের ঝুঁকি নেই যা একেবারেই সঠিক নয়? CLT বিতরণের সম্পর্কে কিছু বলে না একটি নির্দিষ্ট জন্য এনX¯n
অলিভিয়ার

ঠিক আছে, সিএলটি সীমাবদ্ধ নমুনার বিতরণ সম্পর্কে কিছু বলে না, তবে কোনও অ্যাসিম্পথোটিক সমীকরণ করবেন না। তবে নিঃসন্দেহে তাদের কাছে দরকারী তথ্য রয়েছে, এ কারণেই সীমাবদ্ধ সম্পর্কগুলি সর্বত্র ব্যবহৃত হয়। চেবিশেভের সমস্যাটি হ'ল এটি এত প্রশস্ত যে ক্লাসের বাইরে খুব কমই ব্যবহৃত হয় used উদাহরণস্বরূপ, একটি স্ট্যান্ডার্ড বিচ্যুতির জন্য এটির সম্ভাব্যতাটি হ'ল - খুব কমই ব্যবহারিক তথ্য<1/k2=1
আকসাকাল

তবুও সমান সম্ভাব্যতার সাথে 0 বা 1 মান গ্রহণের ক্ষেত্রে আপনার চেবিশেভের প্রয়োগটি তীক্ষ্ণ। ;) সমস্যাটি হ'ল চেবিশেভ, একটি নমুনার সাথে প্রয়োগ করা, এন বাড়ার সাথে সাথে কখনই তীক্ষ্ণ থাকবে না । Xn
অলিভিয়ার

আমি স্মিথ এবং ওয়েলসের কাগজ সম্পর্কে জানতাম না, আমি এটি আর-তে পুনরুত্পাদন করার চেষ্টা করেছি এবং তাদের সিদ্ধান্তগুলি পুনরুদ্ধার করতে পারি না ...
অ্যালেক্স নেলসন

9

সত্যিকারের মানের জন্য ব্যবধান অর্জনের জন্য চেবিশেভ বৈষম্যকে ব্যবহার করার বিষয়টি হ'ল এটি আপনাকে সম্ভাবনার জন্য কেবল একটি নিম্ন সীমাবদ্ধতা দেয় যা কখনও কখনও তুচ্ছ বা তুচ্ছ না হওয়ার জন্য এটি খুব প্রশস্ত করে দেয় আস্থা ব্যবধান. আমাদের আছে

P(|X¯μ|>ε)=1P(X¯εμX¯+ε)

P(X¯εμX¯+ε)11nε2

আমরা দেখতে, নমুনা আকারের উপর এছাড়াও নির্ভর করে, যদি আমরা হ্রাস "অত্যধিক" আমরা তুচ্ছ উত্তর "সম্ভাব্যতা শূন্য তার চেয়ে অনেক বেশী হয়" পাবেন।ε

তদন্য, আমরা কি এই পদ্ধতির থেকে পেতে ফর্ম "একটি উপসংহার হল" সম্ভাবনা পতনশীল [ ˉ এক্স ± ε ] হয় সমান বা তার চেয়ে অনেক বেশী ... "μ[X¯±ε]

কিন্তু আসুন আমরা এই সাথে এসেছেন ভাল অনুমান, এবং বোঝাতে ন্যূনতম সম্ভাবনা যা দিয়ে আমরা আরামদায়ক। সুতরাং আমরা চাইpmin

11nε2=pminε=1(1pmin)n

ছোট নমুনার আকার এবং উচ্চ পছন্দসই ন্যূনতম সম্ভাবনা সহ, এটি একটি অসন্তুষ্টির সাথে প্রশস্ত আত্মবিশ্বাসের অন্তর দিতে পারে। উদাহরণস্বরূপ, এবং এন = 100 এর জন্য আমরা ε .316 পাব , উদাহরণস্বরূপ , [ 0 , 1 ] এর সাথে আবদ্ধ ওপি দ্বারা চিকিত্সার পরিবর্তনের জন্য এটি দরকারী হিসাবে খুব বড় বলে মনে হয়।pmin=0.9n=100ε.316[0,1]

তবে পদ্ধতিটি বৈধ, এবং বিতরণ-মুক্ত এবং তাই এটি কার্যকর হতে পারে এমন উদাহরণও থাকতে পারে।

একজন অন্য উত্তরে উল্লিখিত ভাইসোচাঁস্কিও-পেটুনিন বৈষম্যও যাচাই করতে চাইতে পারেন , যা অবিচ্ছিন্নভাবে বিতরণ করে এবং চেবিশেভের বৈষম্যকে সংশোধন করে।


আমি একমত নই যে চেবিচেভের কোনও সমস্যা এটি যে সম্ভাবনার জন্য কেবল একটি নিম্ন সীমাবদ্ধতা দেয়। বিতরণ-মুক্ত সেটিংয়ে, আমরা আশা করতে পারি এমন একটি নিম্ন সীমাটি সর্বোত্তম। গুরুত্বপূর্ণ প্রশ্নগুলি হ'ল চেবিচেভ তীক্ষ্ণ? Chebychev সি আই এর দৈর্ঘ্য একটি নির্দিষ্ট স্তরের জন্য ধারাক্রমে ওভার অনুমান করা হয় ? একটি নির্দিষ্ট দৃষ্টিকোণ থেকে আমি আমার পোস্টে এটির উত্তর দিয়েছি। যাইহোক, আমি এখনও বুঝতে চেষ্টা করছি যে নমুনা গড়ের জন্য চেবিচেভ সবসময় তীক্ষ্ণ হতে ব্যর্থ হবে, শক্তিশালী অর্থে কিনা। α
অলিভিয়ার

সিআই এর দৈর্ঘ্য অনুমানের অধীনে নেই, যেহেতু এখানে কিছু একক অজানা দৈর্ঘ্য বিদ্যমান নেই, সুতরাং এখানে "অতিরিক্ত-অনুমান" শব্দটি ব্যবহার করে আপনি কী বোঝাতে চেয়েছেন তা আমি নিশ্চিত নই। বিভিন্ন পদ্ধতি বিভিন্ন সিআই সরবরাহ করে, যা অবশ্যই আমরা তাদের মূল্যায়ন ও মূল্যায়নের চেষ্টা করতে পারি।
অ্যালেকোস পাপাদোপল্লোস

অতিরিক্ত মূল্যায়ন শব্দের একটি খারাপ পছন্দ ছিল, এটি দেখানোর জন্য ধন্যবাদ। "নিয়মিতভাবে অতিরিক্ত-অনুমানিত দৈর্ঘ্য" দ্বারা আমি বোঝাতে চেয়েছিলাম যে সিআই প্রাপ্তির জন্য পদ্ধতিটি সর্বদা প্রয়োজনের চেয়ে বড় কিছু দেয়।
অলিভিয়ার

1
@ অলিভিয়ার সাধারণভাবে বলতে গেলে, চেবিশেভ বৈষম্য একটি looseিলে .ালা বৈষম্য হিসাবে পরিচিত, এবং তাই প্রয়োগকৃত কাজের চেয়ে তাত্ত্বিক উদ্দীপনা এবং প্রমাণগুলির একটি সরঞ্জাম হিসাবে বেশি ব্যবহৃত হয়।
অ্যালেকোস পাপাদোপল্লোস

2
@ অলিভিয়ার "সাধারণভাবে বলতে" আপনার যোগ্যতাটি কভার করে, আমি বলব।
অ্যালেকোস পাপাদোপল্লোস

7

সংক্ষিপ্ত উত্তরটি হ'ল এটি বেশ খারাপভাবে যেতে পারে তবে কেবলমাত্র যদি নমুনা বিতরণের এক বা উভয় লেজ সত্যই মোটা হয়

এই আর কোডটি 30 গামা-বিতরণযোগ্য ভেরিয়েবলের এক মিলিয়ন সেট তৈরি করে এবং এর অর্থ গ্রহণ করে; গড়ের স্যাম্পলিং বিতরণ কী দেখায় তা বোঝার জন্য এটি ব্যবহার করা যেতে পারে। সাধারণ আনুমানিকতা যদি উদ্দেশ্য হিসাবে কাজ করে তবে ফলাফলগুলি গড় 1 এবং বৈকল্পিকের সাথে প্রায় স্বাভাবিক হওয়া উচিত 1/(30 * shape)

f = function(shape){replicate(1E6, mean(rgamma(30, shape, shape)))}

যখন shape1.0 হয়, গামা বিতরণটি তাত্পর্যপূর্ণ বিতরণে পরিণত হয় , যা বেশ স্বাভাবিক। তবুও, অ-গাউসিয়ান অংশগুলি বেশিরভাগ গড় হয়ে যায় এবং সুতরাং গাউসীয় অনুমানটি এতটা খারাপ নয়:

histogram & density plot

স্পষ্টভাবে কিছু পক্ষপাত আছে, এবং এটি সম্ভব হলে এড়ানো ভাল হবে। তবে সত্যি কথা বলতে, পক্ষপাতিত্বের এই স্তরটি সম্ভবত একটি সাধারণ গবেষণার মুখোমুখি সবচেয়ে বড় সমস্যা হবে না।

এই বলেছিল, বিষয়গুলি আরও খারাপ হতে পারে। সহ f(0.01), হিস্টোগ্রামটি এর মতো দেখাচ্ছে:

histogram

গড়ের আগে 30 টি নমুনাযুক্ত ডেটার পয়েন্টগুলিকে লগ-রূপান্তর করা অনেক সহায়তা করে, যদিও:

histogram

সাধারণভাবে, গাউসীয় আনুমানিকতা নির্ভরযোগ্য হতে শুরু করার আগে দীর্ঘ লেজগুলি (বিতরণের এক বা উভয় পক্ষের) সাথে বিতরণ করার জন্য সর্বাধিক নমুনার প্রয়োজন হবে। এমন কি প্যাথলজিকাল কেস রয়েছে যেখানে গাওসীয় আনুমানিকের কাজ করার জন্য আক্ষরিক অর্থে কখনই পর্যাপ্ত পরিমাণে উপস্থিত হবে না, তবে আপনার সম্ভবত সেই ক্ষেত্রে আরও গুরুতর সমস্যা হবে (কারণ স্যাম্পলিং বিতরণটির শুরু করার মতো কোনও সংজ্ঞায়িত গড় বা ভিন্নতা নেই) সঙ্গে).


আমি পরীক্ষাকে খুব প্রাসঙ্গিক এবং আকর্ষণীয় মনে করি। তবে আমি এটি উত্তর হিসাবে নেব না, কারণ এটি সমস্যার ক্রুসটিকে সম্বোধন করে না।
অলিভিয়ার


আপনার উত্তর শব্দ পরিসংখ্যান অনুশীলনের জন্য কঠোর পদক্ষেপ সরবরাহ করে না। এটি কেবল উদাহরণ দেয়। নোট, এছাড়াও, যে আমি বিবেচনা করি এলোমেলো পরিবর্তনশীলগুলি সীমাবদ্ধ, এটি সবচেয়ে খারাপ পরিস্থিতিটি ব্যাপকভাবে পরিবর্তন করে।
অলিভিয়ার 21

@ গ্লেন_বি: এই উত্তরটি আপনার প্রশ্নের সংশোধিত সংস্করণের সাথে এতটা প্রাসঙ্গিক নয়। আমি কি কেবল এটি এখানে রেখেছি, না আপনি অন্য কিছু সুপারিশ করবেন?
ডেভিড জে হ্যারিস

3

চেবিশেভ আত্মবিশ্বাসের ব্যবধানে সমস্যা

σ214Var(X)μ(1μ)μ

P(|X¯μ|ε)14nε2.
nXi14, the worst possible case. The theorem implies that P(|X¯μ|ε2n)2SF(ε)+8n, where SF is the survival function of the standard normal distribution. In particular, with ε=16, we get SF(16)e58 (according to Scipy), so that essentially
P(|X¯μ|8n)8n+0,()
whereas the Chebyshev inequality implies
P(|X¯μ|8n)1256.
Note that I did not try to optimize the bound given in (), the result here is only of conceptual interest.

Comparing the lengths of the confidence intervals

Consider the (1α)-level confidence interval lengths Z(α,n) and C(α,n) obtained using the normal approximation (σ=12) and the Chebyshev inequality, repectively. It turns out that C(α,n) is a constant times bigger than Z(α,n), independently of n. Precisely, for all n,

C(α,n)=κ(α)Z(α,n),κ(α)=(ISF(α2)α)1,
where ISF is the inverse survival function of the standard normal distribution. I plot below the multiplicative constant.

enter image description here

In particular, the 95% level confidence interval obtained using the Chebyshev inequality is about 2.3 times bigger than the same level confidence interval obtained using the normal approximation.


Using Hoeffding's bound

Hoeffding's bound gives

P(|X¯μ|ε)2e2nε2.
Thus an (1α)-level confidence interval for μ is
(X¯ε,X¯+ε),ε=lnα22n,
of length H(α,n)=2ε. I plot below the lengths of the different confidence intervals (Chebyshev inequality: C; normal approximation (σ=1/2): Z; Hoeffding's inequality: H) for α=0.05.

enter image description here


Very interesting! I have though some corrections to suggest you toghether with a big puzzlement: first, you should take out absolute value from the Hoeffding's unequality definition, it's P(X¯με)e2nε2 or P(|X¯μ|ε)2e2nε2; the second correction is less important, α is generally taken to be 0.05 or lower, while 0.95 is addressed as 1α, it's a bit confusing to see them switched in your post.
carlo

Last and more important: I found your result incredible, so I tried to replicate it in R and I got a completely opposite result: normal approximation gives smaller confidence intervals to me! this is the code I used: curve(sqrt(-log(.025)/2/x), to= 100, col= 'red', xlab= 'n', ylab= 'half interval') #Hoeffding ; curve(qnorm(.975, 0, .5/sqrt(x)), to= 100, add= T, col= 'darkgreen') #normal approximation
carlo

0

let's start with the number 30: it's, as anyone will say, a rule of thumb. but how can we find a number that fits better to our data? It's actually mostly a matter of skewness: even the strangest distribution will fast converge to normal if they are simmetric and continuous, skewed data will be much slower. I remember learning that a binomial distribution can be properly approximated to normal when its variance is greater than 9; for this example it's to be considered that discrete distribution also have the problem that they need great numbers to simulate continuity, but think to this: a simmetric binomial distribution will reach that variance with n = 36, if p = 0.1 instead, n must go up to 100 (variabile trasformation, however, would help a lot)!

If you only want to use variance instead, dropping gaussian approximation, consider Vysochanskij–Petunin inequality over Chebichev's, it needs the assumption of unimodal distribution of the mean, but this is a very safe one with any sample size, I'd say, greater than 2.


Could you add a reference for " Vysochanskij–Petunin inequality "? Never heard of it!
kjetil b halvorsen

wikipedia docet
carlo

Can you express the rate of convergence in terms of the skewdness? Why is a sample size of, you'd say 2, enough for unimodality? How is the Vysochanskij–Petunin inequality an improvement over Chebychev if you need to double or triple the sample size for it to apply?
Olivier

I made a fast google search and I found out that binomial distribution is actually often used to explain different sample size need for skewed data, but I didn't find, and I guess there is no accepted "rate of convergence in terms of the skewdness".
carlo

Vysochanskij–Petunin inequality is more efficent than Chebychev's, so it doesn't need a greater sample at all, but it has some use constraints: first, you have to have a continuous distribution, than, it has to be unimodal (no local modes are allowed). It may seem strange to drop normality assumption to adopt another one, but if your data is not discrete, sample mean should eliminate local modes even with very small samples. Fact is that mean has much of a bell distribution and, also if it can be skewed or have fat tails, it quickly comes to only have one mode.
carlo
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.