লজিস্টিক রিগ্রেশন-এ বাম বাদে সাধারণ চলমান স্কোয়্যার রিগ্রেশন-এ বাদ দেওয়া পরিবর্তনশীল পক্ষপাত নির্বিঘ্নে mitted


17

লজিস্টিক এবং লিনিয়ার রিগ্রেশন-এ বাদ দেওয়া পরিবর্তনশীল পক্ষপাত সম্পর্কে আমার একটি প্রশ্ন রয়েছে।

বলুন আমি লিনিয়ার রিগ্রেশন মডেল থেকে কিছু ভেরিয়েবল বাদ দিই। ভান করুন যে এই বাদ দেওয়া ভেরিয়েবলগুলি আমি আমার মডেলটিতে অন্তর্ভুক্ত ভেরিয়েবলগুলির সাথে সম্পর্কযুক্ত are এই বাদ দেওয়া ভেরিয়েবলগুলি আমার মডেলের সহগগুলিকে পক্ষপাতিত্ব করে না।

তবে লজিস্টিক রিগ্রেশন-এ, আমি কেবল শিখেছি যে এটি সত্য নয়। বাদ দেওয়া ভেরিয়েবলগুলি অন্তর্ভুক্ত ভেরিয়েবলগুলির সাথে সংযুক্ত না থাকলেও অন্তর্ভুক্ত ভেরিয়েবলের সহগের পক্ষপাতিত্ব করবে। আমি এই বিষয়ে একটি কাগজ পেয়েছি, তবে আমি এর মাথা বা লেজ তৈরি করতে পারি না।

এখানে কাগজ এবং কিছু পাওয়ার পয়েন্ট স্লাইড।

পক্ষপাত, স্পষ্টতই, সর্বদা শূন্যের দিকে থাকে। কেউ কীভাবে এটি কাজ করে তা ব্যাখ্যা করতে পারেন?


লজিস্টিক রিগ্রেশন মডেলটি অন্তর্নিহিত "সুপ্ত-পরিবর্তনশীল" লিনিয়ার রিগ্রেশন মডেল থেকে কীভাবে উত্থিত হয় তার সাথে আপনি কি পরিচিত?
অ্যালেকোস পাপাদোপল্লো

@ আলেকোসপ্যাডাপোলোস আমি একজনের জন্য নেই। থালা কী?
অ্যালেক্সিস

এটি সম্পর্কিত অন্যান্য নিবন্ধ রয়েছে, তবে আপনি যেটির সাথে লিঙ্ক করেছেন সেটি হ'ল আমি জানি। সুতরাং আমি মনে করি না যে আমি এটিতে উন্নতি করতে পারি।
মার্টেন

প্রিয় মিঃ পাপাদোপল্লো: আমি সুপ্ত-পরিবর্তনশীল ধারণাটি পড়েছি। কেন জিজ্ঞাসা করছ?
কনফিউজড

@ অ্যালেক্সিস দেখুন উদাহরণস্বরূপ এই পোস্টটি, stats.stackexchange.com/questions/80611/… , এবং উইকিপিডিয়া নিবন্ধ, en.wikedia.org/wiki/… । এই পদ্ধতির সাথে এটিও স্পষ্ট হয়েছে যে অন্তর্নিহিত মডেলের ত্রুটি শর্তের বিষয়ে আমরা যে অনুমান করি তা হ'ল যা সম্ভাব্যতা স্তরে আমরা কী মডেলটি গ্রহণ করব তা নির্ধারণ করে। অন্য একটি উদাহরণের জন্য, যদি আমরা ধরে নিই যে অন্তর্নিহিত ত্রুটিটি একটি ইউনিফর্মের অনুসরণ করে, আমরা লিনিয়ার সম্ভাব্যতা মডেলটি পাই, দেখুন, stats.stackexchange.com/questions/81789
অ্যালেকোস পাপাদোপল্লোস

উত্তর:


20

"প্রবণতা" মডেলটি পরীক্ষা করলে "ফলস্বরূপ পক্ষপাত" এর ক্ষেত্রে আরও স্পষ্টভাবে উপস্থাপন করা যেতে পারে - তবে ফলাফলটি লজিস্টিক রিগ্রেশনকেও বহন করে।

শর্তসাপেক্ষ সম্ভাব্যতা মডেলগুলির নীচে (লজিস্টিক (লজিট), "প্রবিট" এবং "লিনিয়ার সম্ভাবনা" মডেল) আমরা একটি সুপ্ত (অবিচ্ছিন্ন) লিনিয়ার রিগ্রেশন মডেল পোস্ট করতে পারি:

y=Xβ+u

যেখানে একটি ক্রমাগত unobservable পরিবর্তনশীল (এবং এক্স regressor ম্যাট্রিক্স যায়)। ত্রুটি শর্তটি রেজিস্ট্রারদের কাছ থেকে স্বতন্ত্র বলে ধরে নেওয়া হয় এবং শূন্যের কাছাকাছি ঘনত্বের প্রতিসাম্যযুক্ত এমন একটি বিতরণ অনুসরণ করা হয় এবং আমাদের ক্ষেত্রে, স্ট্যান্ডার্ড স্বাভাবিক বিতরণ F U ( u ) = Φ ( u )yXFU(u)=Φ(u)

আমরা ধরে নিই যে আমরা কি পালন করা, অর্থাত বাইনারি পরিবর্তনশীল , unobservable তার একটি সূচক ফাংশন Y * :yy

y=1ify>0,y=0ify0

এরপর আমরা জিজ্ঞেস "কি সম্ভাব্যতা যে মান নিতে হবে 1 regressors দেওয়া?" (অর্থাত্ আমরা শর্তযুক্ত সম্ভাবনার দিকে নজর দিচ্ছি)। এইy1

P(y=1X)=P(y>0X)=P(Xβ+u>0X)=P(u>XβX)=1Φ(Χβ)=Φ(Xβ)

স্ট্যান্ডার্ড ক্রমবর্ধমান বিতরণ ফাংশনের "প্রতিবিম্বিত" বৈশিষ্ট্যের কারণে শেষ সমতা, যা শূন্যের কাছাকাছি ঘনত্বের কার্যকারিতার প্রতিসাম্য থেকে আসে। লক্ষ্য করুন, যদিও আমরা অধিকৃত যে স্বাধীন এক্স , উপর কন্ডিশনার এক্স আদেশ পরিমাণ চিকিত্সা প্রয়োজন হয় এক্স β অ-র্যান্ডম।uXXXβ

যদি আমরা ধরে নিই যে , তবে আমরা তাত্ত্বিক মডেলটি পাইXβ=b0+b1X1+b2X2

(1)P(y=1X)=Φ(b0+b1X1+b2X2)

যাক এখন হতে স্বাধীন এক্স 1 এবং ভুল অন্তর্নিহিত রিগ্রেশন এর স্পেসিফিকেশন থেকে বাদ। সুতরাং আমরা নির্দিষ্টX2X1

আরও ধরে নিন যে এক্স 2 হ'ল একটি সাধারণ এলোমেলো পরিবর্তনশীল এক্স 2এন ( μ 2 , σ 2 2 ) । তবে এর অর্থ

y=b0+b1X1+ϵ
X2X2N(μ2,σ22)

ϵ=u+b2X2N(b2μ2,1+b22σ22)

সাধারণ বিতরণের ক্লোজার-আন্ডার-সংযোজনের কারণে (এবং স্বাধীনতার অনুমান)। আগের মতো একই যুক্তি প্রয়োগ করা, এখানে আমাদের রয়েছে

P(y=1X1)=P(y>0X1)=P(b0+b1X1+ϵ>0X1)=P(ϵ>b0b1X1X1)

ϵ

P(y=1X1)=1P(ϵb2μ21+b22σ22(b0+b2μ2)1+b22σ22b11+b22σ22X1X1)

(2)P(y=1X1)=Φ((b0+b2μ2)1+b22σ22+b11+b22σ22X1)

and one can compare models (1) and (2).

The above theoretical expression, tells us where our maximum likelihood estimator of b1 is going to converge, since it remains a consistent estimator, in the sense that it will converge to the theoretical quantity that really exists in the model (and of course, not in the sense that it will find the "truth" in any case):

b^1pb11+b22σ22|b^1|<|b1|

which is the "bias towards zero" result.

We used the probit model, and not the logit (logistic regression), because only under normality can we derive the distribution of ϵ. The logistic distribution is not closed under addition. This means that if we omit a relevant variable in logistic regression, we also create distributional misspecification, because the error term (that now includes the omitted variable) no longer follows a logistic distribution. But this does not change the bias result (see footnote 6 in the paper linked to by the OP).

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.