সেখানে যেতে আমাদের কিছুটা সময় লাগবে, তবে সংক্ষেপে, পৌঁছাতে বি এর সাথে সামঞ্জস্যপূর্ণ ভেরিয়েবলের এক-ইউনিট পরিবর্তন ফলাফলের আপেক্ষিক ঝুঁকিটিকে (বেস ফলাফলের সাথে তুলনা করে) 6.012 দ্বারা বহুগুণ করবে।
এটিকে আপেক্ষিক ঝুঁকিতে "5012%" বৃদ্ধি হিসাবে প্রকাশ করা যেতে পারে তবে এটি করা একটি বিভ্রান্তিকর এবং সম্ভাব্য বিভ্রান্তিমূলক উপায়, কারণ এটি প্রস্তাব দেয় যে আমাদের পরিবর্তনের সাথে যুক্ত হওয়ার কথা ভাবতে হবে, যখন বাস্তবে বহুজাতিক লজিস্টিক মডেল আমাদের দৃ strongly়ভাবে উত্সাহিত করে গুণকভাবে চিন্তা করুন। সংশোধক "আপেক্ষিক" অপরিহার্য, কারণ একটি পরিবর্তনশীল পরিবর্তন একই সাথে সমস্ত ফলাফলের পূর্বাভাস সম্ভাব্যতাগুলিকে পরিবর্তিত করছে , কেবল প্রশ্নে নয়, তাই আমাদের সম্ভাবনাগুলি তুলনা করতে হবে ( অনুপাতের মাধ্যমে, নয় পার্থক্যগুলি)।
এই জবাবের বাকীগুলি এই বিবৃতিগুলির সঠিকভাবে ব্যাখ্যা করার জন্য প্রয়োজনীয় পরিভাষা এবং স্বজ্ঞাতকে বিকাশ করে।
পটভূমি
আসুন বহুজাতিক মামলায় যাওয়ার আগে সাধারণ লজিস্টিক রিগ্রেশন দিয়ে শুরু করি।
নির্ভরশীল (বাইনারি) ভেরিয়েবল Y এবং স্বতন্ত্র ভেরিয়েবল Xi , মডেলটি
Pr[Y=1]=exp(β1X1+⋯+βmXm)1+exp(β1X1+⋯+βmXm);
equivalently অভিমানী 0≠Pr[Y=1]≠1 ,
log(ρ(X1,⋯,Xm))=logPr[Y=1]Pr[Y=0]=β1X1+⋯+βmXm.
(এই কেবল সংজ্ঞায়িত , যা মতভেদ এর কার্যকারিতা হিসেবে এক্স আমিρXi ।)
সাধারণতার কোনও ক্ষতি ছাড়াই, সূচী করুন যাতে এক্স এম পরিবর্তনশীল এবং β মি প্রশ্নের মধ্যে "বি" থাকে (যাতে এক্সপ্রেস ( β এম ) = 6.012 )। এক্স i , 1 ≤ i < m এর মানগুলি স্থির করে নেওয়া এবং একটি অল্প পরিমাণে ফলন করে এক্স মি দ্বারা পৃথক করা δ ফলনXiXmβmexp(βm)=6.012Xi,1≤i<mXmδ
log(ρ(⋯,Xm+δ))−log(ρ(⋯,Xm))=βmδ.
সুতরাং, থেকে সম্মান সঙ্গে লগ মতভেদ প্রান্তিক পরিবর্তন এক্স মি ।βm Xm
পুনরুদ্ধার করার জন্য , অবশ্যই আমাদের অবশ্যই δ = 1 সেট করতে হবে এবং বাম দিকে ঘনিষ্ট করতে হবে :exp(βm)δ=1
exp(βm)=exp(βm×1)=exp(log(ρ(⋯,Xm+1))−log(ρ(⋯,Xm)))=ρ(⋯,Xm+1)ρ(⋯,Xm).
This exhibits exp(βm) as the odds ratio for a one-unit increase in Xm. To develop an intuition for what this might mean, tabulate some values for a range of starting odds, rounding heavily to make the patterns stand out:
Starting odds Ending odds Starting Pr[Y=1] Ending Pr[Y=1]
0.0001 0.0006 0.0001 0.0006
0.001 0.006 0.001 0.006
0.01 0.06 0.01 0.057
0.1 0.6 0.091 0.38
1. 6. 0.5 0.9
10. 60. 0.91 1.
100. 600. 0.99 1.
For really small odds, which correspond to really small probabilities, the effect of a one unit increase in Xm is to multiply the odds or the probability by about 6.012. The multiplicative factor decreases as the odds (and probability) get larger, and has essentially vanished once the odds exceed 10 (the probability exceeds 0.9).
As an additive change, there's not much of a difference between a probability of 0.0001 and 0.0006 (it's only 0.05%), nor is there much of a difference between 0.99 and 1. (only 1%). The largest additive effect occurs when the odds equal 1/6.012−−−−√∼0.408, where the probability changes from 29% to 71%: a change of +42%.
We see, then, that if we express "risk" as an odds ratio, βm = "B" has a simple interpretation--the odds ratio equals βm for a unit increase in Xm--but when we express risk in some other fashion, such as a change in probabilities, the interpretation requires care to specify the starting probability.
Multinomial logistic regression
(This has been added as a later edit.)
Having recognized the value of using log odds to express chances, let's move on to the multinomial case. Now the dependent variable Y can equal one of k≥2 categories, indexed by i=1,2,…,k. The relative probability that it is in category i is
Pr[Yi]∼exp(β(i)1X1+⋯+β(i)mXm)
with parameters β(i)j to be determined and writing Yi for Pr[Y=category i]. As an abbreviation, let's write the right-hand expression as pi(X,β) or, where X and β are clear from the context, simply pi. Normalizing to make all these relative probabilities sum to unity gives
Pr[Yi]=pi(X,β)p1(X,β)+⋯+pm(X,β).
(There is an ambiguity in the parameters: there are too many of them. Conventionally, one chooses a "base" category for comparison and forces all its coefficients to be zero. However, although this is necessary to report unique estimates of the betas, it is not needed to interpret the coefficients. To maintain the symmetry--that is, to avoid any artificial distinctions among the categories--let's not enforce any such constraint unless we have to.)
One way to interpret this model is to ask for the marginal rate of change of the log odds for any category (say category i) with respect to any one of the independent variables (say Xj). That is, when we change Xj by a little bit, that induces a change in the log odds of Yi. We are interested in the constant of proportionality relating these two changes. The Chain Rule of Calculus, together with a little algebra, tells us this rate of change is
∂ log odds(Yi)∂ Xj=β(i)j−β(1)jp1+⋯+β(i−1)jpi−1+β(i+1)jpi+1+⋯+β(k)jpkp1+⋯+pi−1+pi+1+⋯+pk.
This has a relatively simple interpretation as the coefficient β(i)j of Xj in the formula for the chance that Y is in category i minus an "adjustment." The adjustment is the probability-weighted average of the coefficients of Xj in all the other categories. The weights are computed using probabilities associated with the current values of the independent variables X. Thus, the marginal change in logs is not necessarily constant: it depends on the probabilities of all the other categories, not just the probability of the category in question (category i).
When there are just k=2 categories, this ought to reduce to ordinary logistic regression. Indeed, the probability weighting does nothing and (choosing i=2) gives simply the difference β(2)j−β(1)j. Letting category i be the base case reduces this further to β(2)j, because we force β(1)j=0. Thus the new interpretation generalizes the old.
To interpret β(i)j directly, then, we will isolate it on one side of the preceding formula, leading to:
The coefficient of Xj for category i equals the marginal change in the log odds of category i with respect to the variable Xj, plus the probability-weighted average of the coefficients of all the other Xj′ for category i.
Another interpretation, albeit a little less direct, is afforded by (temporarily) setting category i as the base case, thereby making β(i)j=0 for all the independent variables Xj:
The marginal rate of change in the log odds of the base case for variable Xj is the negative of the probability-weighted average of its coefficients for all the other cases.
Actually using these interpretations typically requires extracting the betas and the probabilities from software output and performing the calculations as shown.
Finally, for the exponentiated coefficients, note that the ratio of probabilities among two outcomes (sometimes called the "relative risk" of i compared to i′) is
YiYi′=pi(X,β)pi′(X,β).
Let's increase Xj by one unit to Xj+1. This multiplies pi by exp(β(i)j) and pi′ by exp(β(i′)j), whence the relative risk is multiplied by exp(β(i)j)/exp(β(i′)j) = exp(β(i)j−β(i′)j). Taking category i′ to be the base case reduces this to exp(β(i)j), leading us to say,
The exponentiated coefficient exp(β(i)j) is the amount by which the relative risk Pr[Y=category i]/Pr[Y=base category] is multiplied when variable Xj is increased by one unit.