OLS coefficients deriving বিকল্প উপায়


8

মধ্যে আমার আরেকটি প্রশ্ন , একজন উত্তরদাতা এলএলএস কোঅফিশেন্টের নিম্নলিখিত ডেরিভেশন ব্যবহার করেছিলেন:

আমাদের একটি মডেল আছে: $$ Y = X_1 \ বিটা + এক্স_2 \ বিটা_2 + জেড \ গামা + \ varepsilon, $$ যেখানে $ Z $ unobserved। তারপর আমাদের আছে: $$ \ text {plim} \, \ hat \ beta_ {1} = \ beta_1 + \ gamma \ frac {cov (x_1 ^ *, z)} {Var (X_1 ^ *)} = \ beta_1, $$ যেখানে $ X_1 ^ * = M_2 X_1 $ এবং $ M_2 = [I - X_2 (X_2'X_2) ^ {- 1} X_2 '] $।

এটি স্বাভাবিক $ \ বিটা = (X'X) ^ {- 1} X'Y $ থেকে ভিন্ন দেখায় যা আমি অর্থনীতিতে দেখেছি। এই derivation একটি আরো স্পষ্ট ব্যাখ্যা আছে? $ M_2 $ ম্যাট্রিক্সের জন্য একটি নাম আছে?


আমি নিশ্চিত হ্যানসেনের বক্তৃতা নোটগুলিতে বর্ণিত তার বর্ণনা, কিন্তু এখন আমার হাতে তাদের হাতে নেই।
FooBar

উত্তর:


8

$ \ Mathbf এম = \ mathbf I- \ mathbf x (\ mathbf x '\ mathbf x) ^ {- 1} \ mathbf x' $ ম্যাট্রিক্স ম্যাট্রিক্স $ \ mathbf এর সাথে যুক্ত "অ্যানিহিলেটর" বা "অবশেষ নির্মাতা" ম্যাট্রিক্স এক্স $। এটি "annihilator" বলা হয় কারণ $ \ mathbf এম \ mathbf x = 0 $ (অবশ্যই নিজের $ X $ ম্যাট্রিক্সের জন্য)। "অবশিষ্ট সৃষ্টিকর্তা" বলা হয় কারণ $ \ mathbf M \ mathbf y = \ mathbf {\ hat e} $, প্রতিশোধ $ \ mathbf y = \ mathbf x \ beta + \ mathbf e $।

এটি একটি সমীকরণ এবং idempotent ম্যাট্রিক্স। এটি গাউস-মার্কভ তত্ত্বের প্রমাণে ব্যবহৃত হয়।

এছাড়াও, এটি ব্যবহার করা হয় Frisch-Waugh-Lovell তত্ত্ব , যার থেকে একটি "পার্টিশনড রিগ্রেশন" এর ফলাফল পেতে পারে, যা বলে যে মডেলটিতে (ম্যাট্রিক্স আকারে)

$$ \ mathbf y = \ mathbf x_1 \ beta_1 + \ mathbf x_2 \ beta_2 + \ mathbf u $$

আমরা যে আছে

$$ \ hat \ beta_1 = (\ mathbf x_1 '\ mathbf m_2 \ mathbf x_1) ^ {- 1} (\ mathbf x_1' \ mathbf m_2) \ mathbf y $$

যেহেতু $ \ mathbf M_2 $ অসম্মানজনক তাই আমরা উপরে দ্বারা পুনরায় লিখতে পারি

$$ \ hat \ beta_1 = (\ mathbf x_1 '\ mathbf m_2 \ mathbf m_2 \ mathbf x_1) ^ {- 1} (\ mathbf x_1' \ mathbf m_2 \ mathbf m_2) \ mathbf y $$

এবং যেহেতু $ M_2 $ এছাড়াও আমাদের সমার্থক আছে

$$ \ hat \ beta_1 = ([\ mathbf m_2 \ mathbf x_1] '[\ mathbf m_2 \ mathbf x_1]) ^ {- 1} ([\ mathbf m_2 \ mathbf x_1]' [\ mathbf m_2 \ mathbf y] $ $

কিন্তু এই মডেল থেকে অন্তত-বর্গাকার অনুমানকারী হয়

$$ [\ mathbf m_2 \ mathbf y] = [\ mathbf m_2 \ mathbf x_1] \ beta_1 + \ mathbf m_2 \ mathbf u $$

এবং $ \ mathbf M_2 \ mathbf y $ ম্যাট্রিক্স $ \ mathbf X_2 $ শুধুমাত্র $ \ mathbf y $ পুনরুদ্ধারের অবশিষ্টাংশ।

অন্য কথায়: 1) আমরা যদি $ \ mathbf y $ ম্যাট্রিক্স $ \ mathbf X_2 $ শুধুমাত্র $ রিগ্রাস করি, এবং তারপরে অবশিষ্টাংশ ম্যাট্রিক্সের এই অনুমান থেকে $ \ mathbf M_2 \ mathbf X_1 $ শুধুমাত্র, $ \ hat \ beta_1 $ অনুমান আমরা অর্জন করব গাণিতিকভাবে আমরা স্বাভাবিক একাধিক প্রতিক্রিয়া হিসাবে একসাথে $ \ mathbf X_1 $ এবং $ \ mathbf X_2 $ উভয় উভয় $ \ mathbf y $ রিগ্রেশন যদি অনুমান সমান হবে।

এখন, অনুমান করুন যে $ \ mathbf X_1 $ একটি ম্যাট্রিক্স নয় তবে কেবলমাত্র একটি রেগ্রেসার, $ \ mathbf x_1 $ বলুন। তারপরে $ \ mathbf M_2 \ mathbf x_1 $ রেগ্রেসার ম্যাট্রিক্স $ \ mathbf X_2 $ এ পরিবর্তনশীল $ X_1 $ পুনরুদ্ধারের অবশিষ্টাংশ। এবং এটি এখানে অন্তর্দৃষ্টি সরবরাহ করে: $ \ hat \ beta_1 $ আমাদেরকে "$ X_1 $ অংশ যা $ \ mathbf X_2 $ দ্বারা অনুপযুক্ত নয়" অংশটি "$ Y $ এর অংশ যা $ $ দ্বারা অনির্দিষ্ট রেখে দেওয়া হয়েছে তা দেয়। \ mathbf x_2 $ "।

এটি ক্লাসিক ক্ষুদ্র-স্কোয়ারগুলি বীজগণিতের প্রতীকী অংশ।


উত্তর শুরু, কিন্তু আমি এই উত্তর দিয়ে overlap অনেক ছিল। আপনি বিল গ্রীন এর "অর্থনীতি বিশ্লেষণ" এর 7 ম সংস্করণের অধ্যায় 3.2.4 এ এই তথ্য অনেক খুঁজে পেতে পারেন।
cc7768

@ সিসি 7768 হ্যাঁ, এটি অন্তত-বর্গ বীজগণিতের জন্য একটি ভাল উৎস। কিন্তু অতিরিক্ত উপাদান পোস্ট করতে দ্বিধা করবেন না। উদাহরণস্বরূপ, মূলত আমার উত্তর অপারেটিং সিস্টেমের দ্বিতীয় প্রশ্ন শুধুমাত্র কভার।
Alecos Papadopoulos

@ অ্যালকোসপাপাদোপুলোস আপনি বলেছেন যে যদি আমরা $ \ mathbf M_2y $ \ mathbf X_1 $ তে পুনরুদ্ধার করি, আমরা $ \ hat \ beta_1 $ পাবেন। কিন্তু সমীকরণ বলছে না, পরিবর্তে $ \ mathbf M_2y $ $ mathbf M_2 \ mathbf X_1 $ পরিবর্তে $?
Heisenberg

@ হেইসেনবার্গ সঠিক। টাইপো। এটি স্থির, এবং আরো একটি বিট যোগ করা।
Alecos Papadopoulos
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.