লিনিয়ার রিগ্রেশন এর জন্য টি-টেস্ট বোঝা


17

আমি লিনিয়ার রিগ্রেশন (নাল হাইপোথিসিসের কোনও পারস্পরিক সম্পর্ক নেই) সম্পর্কে কিছু অনুমান পরীক্ষা করা কীভাবে কাজ করার চেষ্টা করছি। আমি যে বিষয়টিতে রইলাম তাতে প্রতিটি গাইড এবং পৃষ্ঠা টি-টেস্ট ব্যবহার করছে বলে মনে হচ্ছে। তবে আমি বুঝতে পারি না লিনিয়ার রিগ্রেশনটির টি-টেস্টের অর্থ কী। একটি টি-টেস্ট, যদি না আমার সম্পূর্ণ ভুল বোঝাপড়া বা মানসিক মডেল থাকে, তবে দুটি জনসংখ্যার তুলনা করার জন্য ব্যবহৃত হয়। তবে রেজিস্ট্রার এবং রেজিস্ট্র্যান্ড একই ধরণের জনসংখ্যার নমুনা নয় এবং এটি একই ইউনিটেরও নাও থাকতে পারে, তাই তাদের তুলনা করা বুদ্ধিমান নয়।

সুতরাং, যখন লিনিয়ার রিগ্রেশনটিতে টি-টেস্ট ব্যবহার করা হয়, তখন এটি আসলে আমরা কী করছি?

উত্তর:


37

আপনি সম্ভবত দুটি নমুনা টি পরীক্ষার কথা ভাবছেন কারণ এটি প্রায়শই প্রথম স্থানে টি বিতরণ আসে। তবে সত্যিই সমস্ত টি পরীক্ষার মানে হল পরীক্ষার পরিসংখ্যানগুলির জন্য রেফারেন্স বিতরণ একটি টি বিতরণ। তাহলে জেড ~ এন ( 0 , 1 ) এবং এস 2 ~ χ 2 সঙ্গে জেড এবং এস 2 স্বাধীন, তারপর জেডttttZN(0,1)S2χ2dZS2S2/dtd

ZS2/dtd
by definition. I'm writing this out to emphasize that the tt distribution is just a name that was given to the distribution of this ratio because it comes up a lot, and anything of this form will have a tt distribution. For the two sample t test, this ratio appears because under the null the difference in means is a zero-mean Gaussian and the variance estimate for independent Gaussians is an independent χ2χ2 (the independence can be shown via Basu's theorem which uses the fact that the standard variance estimate in a Gaussian sample is ancillary to the population mean, while the sample mean is complete and sufficient for that same quantity).

With linear regression we basically get the same thing. In vector form, ˆβN(β,σ2(XTX)1)β^N(β,σ2(XTX)1). Let S2j=(XTX)1jjS2j=(XTX)1jj and assume the predictors XX are non-random. If we knew σ2σ2 we'd have ˆβj0σSjN(0,1)

β^j0σSjN(0,1)
under the null H0:βj=0H0:βj=0 so we'd actually have a Z test. But once we estimate σ2σ2 we end up with a χ2χ2 random variable that, under our normality assumptions, turns out to be independent of our statistic ˆβjβ^j and then we get a tt distribution.

Here's the details of that: assume yN(Xβ,σ2I)yN(Xβ,σ2I). Letting H=X(XTX)1XTH=X(XTX)1XT be the hat matrix we have e2=(IH)y2=yT(IH)y.

e2=(IH)y2=yT(IH)y.
HH is idempotent so we have the really nice result that yT(IH)y/σ2χ2np(δ)
yT(IH)y/σ2χ2np(δ)
with non-centrality parameter δ=βTXT(IH)Xβ=βT(XTXXTX)β=0δ=βTXT(IH)Xβ=βT(XTXXTX)β=0, so actually this is a central χ2χ2 with npnp degrees of freedom (this is a special case of Cochran's theorem). I'm using pp to denote the number of columns of XX, so if one column of XX gives the intercept then we'd have p1p1 non-intercept predictors. Some authors use pp to be the number of non-intercept predictors so sometimes you might see something like np1np1 in the degrees of freedom there, but it's all the same thing.

The result of this is that E(eTe/σ2)=npE(eTe/σ2)=np, so ˆσ2:=1npeTeσ^2:=1npeTe works great as an estimator of σ2σ2.

This means that ˆβjˆσSj=ˆβjSjeTe/(np)=ˆβjσSjeTeσ2(np)

β^jσ^Sj=β^jSjeTe/(np)=β^jσSjeTeσ2(np)
is the ratio of a standard Gaussian to a chi squared divided by its degrees of freedom. To finish this, we need to show independence and we can use the following result:

Result: for ZNk(μ,Σ)ZNk(μ,Σ) and matrices AA and BB in Rl×kRl×k and Rm×kRm×k respectively, AZAZ and BZBZ are independent if and only if AΣBT=0AΣBT=0 (this is exercise 58(b) in chapter 1 of Jun Shao's Mathematical Statistics).

We have ˆβ=(XTX)1XTyβ^=(XTX)1XTy and e=(IH)ye=(IH)y where yN(Xβ,σ2I)yN(Xβ,σ2I). This means (XTX)1XTσ2I(IH)T=σ2((XTX)1XT(XTX)1XTX(XTX)1XT)=0

(XTX)1XTσ2I(IH)T=σ2((XTX)1XT(XTX)1XTX(XTX)1XT)=0
so ˆβeβ^e, and therefore ˆβeTeβ^eTe.

The upshot is we now know ˆβjˆσSjtnp

β^jσ^Sjtnp
as desired (under all of the above assumptions).

Here's the proof of that result. Let C=(AB)C=(AB) be the (l+m)×k(l+m)×k matrix formed by stacking AA on top of BB. Then CZ=(AZBZ)N((AμBμ),CΣCT)

CZ=(AZBZ)N((AμBμ),CΣCT)
where CΣCT=(AB)Σ(ATBT)=(AΣATAΣBTBΣATBΣBT).
CΣCT=(AB)Σ(ATBT)=(AΣATBΣATAΣBTBΣBT).
CZCZ is a multivariate Gaussian and it is a well-known result that two components of a multivariate Gaussian are independent if and only if they are uncorrelated, so the condition AΣBT=0AΣBT=0 turns out to be exactly equivalent to the components AZAZ and BZBZ in CZCZ being uncorrelated.


3
+1 always enjoy reading your answer.
Haitao Du

9

@Chaconne's answer is great. But here is a much shorter nonmathematical version!

Since the goal is to compute a P value, you first need to define a null hypothesis. Almost always, that is that the slope is actually horizontal so the numerical value for the slope (beta) is 0.0.

The slope fit from your data is not 0.0. Is that discrepancy due to random chance or due to the null hypothesis being wrong? You can't ever answer that for sure, but a P value is one way to sort-of-kind-of get at an answer.

The regression program reports a standard error of the slope. Compute the t ratio as the slope divided by its standard error. Actually, it is (slope minus null hypothesis slope) divided by the standard error, but the null hypothesis slope is nearly always zero.

Now you have a t ratio. The number of degrees of freedom (df) equals the number of data points minus the number of parameters fit by the regression (two for linear regression).

With those values (t and df) you can determine the P value with an online calculator or table.

It is essentially a one-sample t-test, comparing an observed computed value (the slope) with a hypothetical value (the null hypothesis).


4
The real question is why this is "essentially a one-sample t-test", and I don't see how it can become clear from your answer...
amoeba says Reinstate Monica
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.