-স্কোয়ারের কি


18

আমি মনে করি যে নিজেকে বিভ্রান্ত করেছিলাম বুঝতে চেষ্টা করার চেষ্টা করছে যদি একটি r স্কয়ার্ড মানটিরও p ভ্যালু থাকে।

আমি এটা বুঝতে হিসাবে, ডাটা পয়েন্টের একটি সেট রৈখিক সংগতি r ছোটো থেকে একটি মান থাকতে পারে 1 থেকে 1 এবং এই মান, যাই হোক না কেন, একটি থাকতে পারে p -value যা দেখায় তাহলে r থেকে উল্লেখযোগ্যভাবে ভিন্ন হয় 0 (অর্থাত , যদি দুটি ভেরিয়েবলের মধ্যে লিনিয়ার পারস্পরিক সম্পর্ক থাকে)।

রৈখিক রিগ্রেশনের উপর মুভিং, একটি ফাংশন তথ্য, সমীকরণ দ্বারা বর্ণিত লাগানো যেতে পারে Y=a+bXa এবং b (ইন্টারসেপ্ট এবং opeাল ) এর p ভ্যালুগুলি রয়েছে যা তারা থেকে উল্লেখযোগ্যভাবে পৃথক কিনা তা দেখানোর জন্য 0

আমি এতদূর সবকিছু বুঝেছি অভিমানী সঠিক হয় p জন্য -value r এবং p জন্য -value b ঠিক একই জিনিস? তাহলে কি এটি সঠিক বলা যায় যে এটি r -squared নয় যার p ভ্যালু রয়েছে বরং r বা b যা করে?

উত্তর:


14

অসংখ্য (সঠিক) মন্তব্য অন্যান্য ব্যবহারকারীদের দ্বারা ছাড়াও যে ইশারা p জন্য -value r2 অভিন্ন p বিশ্বব্যাপী জন্য -value F পরীক্ষা, দয়া করে মনে রাখবেন আপনার কাছে পেতে পারেন p সঙ্গে যুক্ত -value r2 " সরাসরি " নাল অনুমানের অধীনে বিটা ( v এন)r2 হিসাবে বিতরণ করা হয় তা ব্যবহার করেBeta(vn2,vd2), যেখানেvnএবংহ'লvdযথাক্রমে সম্পর্কিতFস্ট্যাটিস্টিকেরজন্য স্বাধীনতারঅঙ্কএবং ডিনোমিনেটর ডিগ্রি।

বিটা বিতরণে উইকিপিডিয়া প্রবেশের অন্যান্য বিতরণ অনুচ্ছেদ থেকে উত্পন্ন তৃতীয় বুলেট পয়েন্ট আমাদের বলে যে:

তাহলে এবং ওয়াই ~ χ 2 ( β ) স্বাধীন, তারপর এক্সXχ2(α)Yχ2(β)XX+YBeta(α2,β2)

ভাল, আমরা লিখতে পারেন যে এক্সr2 ফর্ম।XX+Y

যাক একটি পরিবর্তনশীল জন্য বর্গের মোট যোগফল হতে ওয়াই , এস এস একটি রিগ্রেশন জন্য স্কোয়ারড ত্রুটি সমষ্টি হতে ওয়াই কিছু অন্যান্য ভেরিয়েবল, এবং এস এস আর হতে "কমে বর্গের সমষ্টি," যে এস এস আর = এস এস ওয়াই - এস এস । তারপরে আর 2 = 1 - এসSSYYSSEYSSRSSR=SSYSSE এবং অবশ্যই, বর্গের অঙ্কের হচ্ছে,এসএসআরএসএসউভয় হিসাবে বিতরণ করা হয়χ2সঙ্গেবনামএনএবংVস্বাধীন ডিগ্রীগুলির যথাক্রমে। অতএব, r2বিটা(vএন)

r2=1SSESSY=SSYSSESSY=SSRSSR+SSE
SSRSSEχ2vnvd (অবশ্যই, আমি এটি দেখাইনি যে দুটি চি-স্কোয়ারগুলি স্বাধীন Maybe সম্ভবত কোনও ভাষ্যকার সে সম্পর্কে কিছু বলতে পারেন))
r2Beta(vn2,vd2)

আর-তে বিক্ষোভ (@ গুং থেকে bণ গ্রহণের কোড):

set.seed(111)
x = runif(20)
y = 5 + rnorm(20)
cor.test(x,y)

# Pearson's product-moment correlation
# 
# data:  x and y
# t = 1.151, df = 18, p-value = 0.2648
# alternative hypothesis: true correlation is not equal to 0
# 95 percent confidence interval:
#  -0.2043606  0.6312210
# sample estimates:
#       cor 
# 0.2618393 

summary(lm(y~x))

# Call:
#   lm(formula = y ~ x)
# 
# Residuals:
#     Min      1Q  Median      3Q     Max 
# -1.6399 -0.6246  0.1968  0.5168  2.0355 
# 
# Coefficients:
#             Estimate Std. Error t value Pr(>|t|)    
# (Intercept)   4.6077     0.4534  10.163 6.96e-09 ***
# x             1.1121     0.9662   1.151    0.265    
# ---
#   Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
# 
# Residual standard error: 1.061 on 18 degrees of freedom
# Multiple R-squared:  0.06856,  Adjusted R-squared:  0.01681 
# F-statistic: 1.325 on 1 and 18 DF,  p-value: 0.2648

1 - pbeta(0.06856, 1/2, 18/2)

# [1] 0.2647731

6

আমি আশা করি এই চতুর্থ (!) উত্তরটি আরও বিষয়গুলি স্পষ্ট করে।

সাধারণ লিনিয়ার রিগ্রেশন এ তিনটি সমতুল্য পরীক্ষা রয়েছে:

  1. covariable এক্স এর শূন্য জনসংখ্যার opeালের জন্য t- পরীক্ষাX
  2. এবং প্রতিক্রিয়া Y এর মধ্যে শূন্য জনসংখ্যার পারস্পরিক সম্পর্কের জন্য টি-পরীক্ষাXY
  3. শূন্য জনসংখ্যার জন্য আর-স্কোয়ারের জন্য F- পরীক্ষা, অর্থাত্ এর পরিবর্তনশীলতার কিছুই এক্সকে আলাদা করে ব্যাখ্যা করা যায় না ।YX

তিনটি পরীক্ষাই এবং ওয়াইয়ের মধ্যে লিনিয়ার অ্যাসোসিয়েশনের জন্য পরীক্ষা করে এবং ভাগ্যক্রমে (!), তারা সবাই একই ফলাফলের দিকে পরিচালিত করে। তাদের পরীক্ষার পরিসংখ্যান সমতুল্য। (1 এবং 2 টেস্টগুলি n - 2 সহ ছাত্র-বিতরণের উপর ভিত্তি করে তৈরি হয়েছেXYn2 ডিএফ যা পরীক্ষার 3 এর নমুনা এফ-বিতরণের সাথে সামঞ্জস্যপূর্ণ, কেবল স্কোয়ার পরীক্ষার পরিসংখ্যানের সাথে)।

আর এর একটি দ্রুত উদাহরণ:

# Input
set.seed(3)

n <- 100
X <- runif(n)
Y <- rnorm(n) + X

cor.test(~ X + Y) # For test 2 (correlation)

# Output (part)
# t = 3.1472, df = 98, p-value = 0.002184
# alternative hypothesis: true correlation is not equal to 0

# Input (for the other two tests)
fit <- lm(Y ~ X)
summary(fit)      

# Output (partial)
Coefficients:
            Estimate Std. Error t value Pr(>|t|)   
(Intercept) -0.03173    0.18214  -0.174  0.86204   
X            1.02051    0.32426   3.147  0.00218 **
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.9239 on 98 degrees of freedom
Multiple R-squared:  0.09179,   Adjusted R-squared:  0.08253 
F-statistic: 9.905 on 1 and 98 DF,  p-value: 0.002184

আপনি দেখতে পাচ্ছেন, তিনটি পরীক্ষা 0.00218 এর একই পি মান দেয়। নোট করুন যে পরীক্ষা 3 আউটপুট এর শেষ লাইন এক।

সুতরাং আর-স্কোয়ারের জন্য আপনার এফ-পরীক্ষাটি খুব ঘন ঘন একটি, যদিও অনেক পরিসংখ্যানবিদ এটিকে আর-স্কোয়ারের পরীক্ষা হিসাবে ব্যাখ্যা করেন না।


5

You seem to have a decent understanding to me. We could get a p-value for r2, but since it is a (non-stochastic) function of r, the ps would be identical.


I don't think so. Connecting inference about ρ and r2 to inference about the α and β from OLS, ρ is significant if β is nonzero, regardless of α. However, r2 is significant if either α or β are non-zero. This helps visualize what the respective tests are assessing.
AdamO

1
@AdamO, I can't follow the argument in your comment. Similar to Michael Mayer's post below, in R try: set.seed(111); x = runif(20); y = 5 + rnorm(20); cor.test(x,y); summary(lm(y~x)). The p for r is .265. The p for b & for the global F test are identical, even though the p for a is 6.96e-09.
gung - Reinstate Monica

Exactly my point. r is different from r2 and their p-value is NOT identical. r2 may be a function of r, but it is not even a monotonic function. r2 can be significant when r is not. What does r2 measure? It's the residual standard error after drawing the OLS trendline and calculating residuals. In your example, will the residual variance be less than the unconditional Y variance? Absolutely. r2 is significant then. You can calculate the operating characteristics with bootstrap and the connection between ANOVA and ordinary least squares also sheds light on the matter.
AdamO

4
You can also get the p-value associated with r2 "directly" using the fact that r2 under the null hypothesis is distributed as Beta(vn2,vd2), where vn and vd are the numerator and denominator degrees of freedom, respectively, for the associated F-statistic. (See the 3rd identity here: en.wikipedia.org/wiki/… .) So, using @gung's example data, if in R we enter 1 - pbeta(0.06856, 1/2, 18/2) we get 0.2647731.
Jake Westfall

4
@AdamO, I still don't understand. They are both .265, how are they not identical?
gung - Reinstate Monica

4

There are several ways of deriving the test statistic for tests of the Pearson correlation, ρ. To obtain a p-value, it is worth emphasizing that you need both a test and a sampling distribution of a test statistic under the null hypothesis. Your title and question seems to have some confusion between Pearson correlation and the "variance explained" r2. I will consider the correlation coefficient first.

There is no "best" way to test the Pearson correlation which I'm aware of. Fisher's Z transformation is one such way, based on hyperbolic transformations, so that the inference is a little bit more efficient. This is certainly a "good" approach, but the sad bit is that inference for this parameter is consistent with inference about the slope parameter β for association: they tell the same story in the long run.

The reason why statisticians have (classically) wholly preferred tests of β is because we do have a "best" test: linear regression, which is the BLUE estimator. In the days of modern statistics, we don't really care if a test is "best" any more, but linear regression has plenty of other fantastic properties that justify its continued usage for determining the association between two variables. In general, your intuition is right: they're essentially the same thing, and we focus our attention upon β as a more practical measure of association.

The r2 is a function of both the slope and the intercept. If either of these values are nonzero, the r2 should have a discernable sampling distribution relative to that which would be expected if the linear parameters were zero. However, deriving distributions of r2 under the null and comparing to r2 under some alternative hypothesis doesn't give me much confidence that this test has much power to detect what we want it to. Just a gut feeling. Again turning to "best" estimators, OLS gives us "best" estimates of both the slope and the intercept, so we have that confidence that our test is at least good for determining the same (if any) association by directly testing the model parameters. To me, jointly testing the α and β with OLS is superior to any test about r2 except in a rare case of (perhaps) a non-nested predictive modeling calibration application... but BIC would probably be a better measure in that scenario anyway.


1
"The r2 is a function of both the slope and the intercept." Maybe I'm missing something but... isn't it just a function of the slope? Maybe you could provide a concrete demonstration?
Jake Westfall

Sure. Recall that if observed data perfectly correspond with the trendline, then r2=1 exactly. Consider "flat response" data with no variability but a non-zero intercept, so all tuples take the form (xi,β0) for all i{1,2,n}. r2=1 as alluded to. The coefficient of determination serves as a reasonable summary of predictive ability for a linear equation, and obtaining those predictions requires both a slope and an intercept.
AdamO

1

This isn't quite how I would interpret things. I don't think I'd ever calculate a p-value for r or r2. r and r2 are qualitative measures of a model, not measures that we're comparing to a distribution, so a p-value doesn't really make sense.

Getting a p-value for b makes a lot of sense - that's what tells you whether the model has a linear relationship or not. If b is statistically significantly different from 0 then you conclude that there is a linear relationship between the variables. The r or r2 then tells you how well the model explains the variation in the data. If r2 is low, then your independent variable isn't helping to explain very much about the dependent variable.

A p-value for a tells us if the intercept is statistically significantly different from 0 or not. This is of varying usefulness, depending on the data. My favorite example: if you do a linear regression between gestation time and birth weight you might find an intercept of, say, 8 ounces that is statistically different from 0. However, since the intercept represents a gestation age of 0 weeks, it doesn't really mean anything.

If anyone does regularly calculate p-values for an r2 I'd be interested in hearing about them.


4
Take a closer look at the output of your favorite regression command: it should report an F statistic and a p-value for it. That is also the p-value for the R2, because F and R2 are directly and monotonically related. For ordinary regression with n data, F=(n2)R2/(1R2). Its p-value will be the p-value for the slope. Therefore if you have ever used a p-value for b in ordinary regression, you have used a p-value for R2.
whuber

In practice it seems like people do not think in terms of the significance of r or r^2. What might be more useful is a confidence interval around them.
N Brouwer
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.