রিগ্রেশন সহগের নমুনা বিতরণ


11

আমি আগে নমুনা বিতরণগুলি সম্পর্কে জানতে পেরেছিলাম যা ফলাফল দেয় যা অনুমানকারীর জন্য ছিল, অজানা প্যারামিটারের ক্ষেত্রে। উদাহরণস্বরূপ, লিনিয়ার রিগ্রেশন মডেল তে the এবং এর নমুনা বিতরণের জন্য β 1ওয়াইআমি=β+ +β1এক্সআমি+ +εআমিβ^0β^1ওয়াইআমি=β+ +β1এক্সআমি+ +εআমি

β1~এন(β1,σ2

β^0~এন(β0, σ2(1এন+ +এক্স¯2এসএক্সএক্স))
এবং
β^1~এন(β1, σ2এসএক্সএক্স)

যেখানেএসএক্সএক্স=Σআমি=1এন(এক্সআমি2)-এনএক্স¯2

তবে এখন আমি একটি বইতে নিম্নলিখিতগুলি দেখেছি :

ধরুন আমরা সাধারণ পদ্ধতিতে কমপক্ষে স্কোয়ার দ্বারা মডেলটি ফিট করি। বায়েশিয়ার উত্তরোত্তর বিতরণ বিবেচনা করুন এবং প্রিরিয়ারদের চয়ন করুন যাতে এটি সাধারণ ঘন ঘনবাদী নমুনা বিতরণের সমতুল্য হয়, ......

(β0β1)~এন2[(β^1β^2), σ^2(এনΣআমি=1এনএক্সআমিΣআমি=1এনএক্সআমিΣআমি=1এনএক্সআমি2)-1]

এটি আমাকে বিভ্রান্ত করছে কারণ:

  1. অনুমানগুলি কেন প্রথম 2 টি এক্সপ্রেশনের বাম দিকে (lhs), এবং সর্বশেষ প্রকাশের ডানদিকে (rh) প্রদর্শিত হবে?
  2. শেষ প্রকাশের বিটা টুপিগুলিতে কেন 0 এবং 1 এর পরিবর্তে 1 এবং 2 টি সাবস্ক্রিপ্ট রয়েছে?
  3. এগুলি কি একই জিনিসটির ভিন্ন ভিন্ন উপস্থাপনা? তারা যদি হয় তবে কেউ কীভাবে আমার সমতুল্য তা প্রদর্শন করতে পারে? যদি না হয় তবে কেউ পার্থক্যটি ব্যাখ্যা করতে পারে?
  4. এই ক্ষেত্রে কি সর্বশেষ প্রকাশটি প্রথম দুটির "বিপরীত" হয়? কি শেষ অভিব্যক্তিতে 2x2 ম্যাট্রিক্সটি উল্টানো হয় এবং অনুমান / পরামিতিগুলি থেকে ? যদি তাই হয় তবে কেউ আমাকে কীভাবে একজনের থেকে অন্যের কাছে যেতে পারেন?

উত্তর:


7

এই অংশটি প্রাথমিকভাবে আপনার প্রথম, তৃতীয় এবং চতুর্থ প্রশ্নের সাথে সম্পর্কিত:

বায়েশিয়ান পরিসংখ্যান এবং ঘন ঘনসংখ্যক পরিসংখ্যানের মধ্যে একটি মৌলিক পার্থক্য রয়েছে।

ফ্রিকোয়েনসিস্ট পরিসংখ্যানগুলি অনুমান করে যে নির্দিষ্ট প্যারামিটার মানগুলি সম্ভবত সম্ভাবনার মধ্য দিয়ে এলোমেলো হিসাবে দেখা ডেটার সাথে সামঞ্জস্যপূর্ণ। আপনি (কিছু প্যারামিটার বা প্যারামিটার) স্থির তবে অজানা হিসাবে নিয়েছেন এবং দেখুন কোনটি ডেটা আরও বেশি সম্ভাব্য করে তোলে; প্যারামিটারগুলি কোথায় থাকতে পারে সে সম্পর্কে অনুমান করার জন্য প্যারামিটারগুলিকে কিছু মডেল থেকে স্যাম্পলিংয়ের বৈশিষ্ট্যগুলি দেখায়। (একজন বায়েশিয়ান হয়তো বলতে পারেন যে ঘন ঘনবাদী দৃষ্টিভঙ্গি 'এমন ঘটনাগুলির ঘনত্বের' উপর ভিত্তি করে)θ

বায়েশিয়ান পরিসংখ্যানগুলি প্যারামিটারগুলিতে তাদের উপর সম্ভাব্যতা বন্টনের ক্ষেত্রে তথ্যের দিকে নজর রাখে, যা সম্ভাবনার মাধ্যমে ডেটা দ্বারা আপডেট করা হয়। প্যারামিটারগুলির বিতরণ রয়েছে, সুতরাং আপনি ।পি(θ|এক্স: _)

এটি প্রায়শই একইরকম দেখায় এমনগুলির ফলাফল হয় তবে যেখানে একের ভেরিয়েবলগুলি "ভুল উপায়ে" দেখতে অন্য উপায়গুলির লেন্সের মধ্য দিয়ে দেখে।

সুতরাং, মৌলিকভাবে তারা কিছুটা আলাদা জিনিস, এবং যেগুলির মধ্যে একটির এলএইচএস রয়েছে সেগুলি অন্যের আরএইচএসে রয়েছে তা কোনও দুর্ঘটনা নয়।

আপনি উভয় নিয়ে কিছু কাজ করলে তা শীঘ্রই যুক্তিসঙ্গতভাবে পরিষ্কার হয়ে যায়।

দ্বিতীয় প্রশ্নটি আমার কাছে কেবল টাইপোর সাথে সম্পর্কিত বলে মনে হয়।

---

বিবৃতিটি "সাধারণ ঘন ঘন স্যাম্পলিং বিতরণের সমতুল্য, এটি": আমি এটি গ্রহণ করেছিলাম এর অর্থ এই যে লেখকরা ঘনঘনবাদী নমুনা বিতরণকে উল্লেখ করছেন ating আমি কি এটি ভুলভাবে পড়েছি?

সেখানে দুটি জিনিস চলছে - তারা কিছুটা আলগাভাবে কিছু প্রকাশ করেছেন (লোকেরা সারাক্ষণ এই জাতীয় ধরণের অতিরিক্ত-আলগা ভাব প্রকাশ করে) এবং আমি মনে করি আপনি এটির উদ্দেশ্য থেকে আলাদাভাবে ব্যাখ্যাও করছেন।

তারপরে তারা যে মত প্রকাশ করে তার অর্থ কী?

আশা করি নীচের আলোচনাটি উদ্দেশ্যযুক্ত ধারণাটি পরিষ্কার করতে সহায়তা করবে।

আপনি যদি একটি রেফারেন্স সরবরাহ করতে পারেন (আমার কাছে লাইব্রেরির ভাল অ্যাক্সেস নেই বলে অনলাইন প্রিফার্ট করুন) যেখানে এই অভিব্যক্তিটি উত্পন্ন হয়েছে আমি কৃতজ্ঞ হব।

এটি ঠিক এখান থেকে অনুসরণ করে:

http://en.wikipedia.org/wiki/Bayesian_linear_regression

ফ্ল্যাট প্রিয়ার নিয়ে এবং আমি মনে করি জন্য একটি ফ্ল্যাটও আগে ।βσ2

কারণটি হ'ল পোস্টেরিয়রটি সম্ভাবনার সাথে সমানুপাতিক এবং পরামিতিগুলিতে পোস্টারিয়রগুলি থেকে উত্পন্ন বিরতিগুলি পরামিতিগুলির জন্য ঘন ঘন আত্মবিশ্বাসের অন্তরগুলির সাথে মেলে।

আপনি এখানে প্রথম কয়েকটি পৃষ্ঠা সহায়ক হিসাবেও পেতে পারেন।


ধন্যবাদ, এটি সহায়ক is আমি ইতিমধ্যে কিছুটা বয়েশিয়ান পরিসংখ্যান করেছি। যদিও আমি "সাধারণ ঘনঘনবাদী নমুনা বিতরণের সমতুল্য," এই বক্তব্যটির কারণে আমি এখনও কিছুটা বিভ্রান্ত হয়ে পড়েছি: আমি এর অর্থ এই বলেছি যে লেখকরা ঘনত্ববাদী নমুনা বিতরণকে বলেছিলেন। আমি কি এটি ভুলভাবে পড়েছি? তারপরে তারা যে মত প্রকাশ করে তার অর্থ কী? আপনি যদি একটি রেফারেন্স সরবরাহ করতে পারেন (আমার কাছে লাইব্রেরির ভাল অ্যাক্সেস নেই বলে অনলাইন প্রিফার্ট করুন) যেখানে এই অভিব্যক্তিটি উত্পন্ন হয়েছে আমি কৃতজ্ঞ হব।
জো কিং

জো - উপরে আমার সম্পাদনা দেখুন
Glen_b -Rininstate মনিকা
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.