(নিরপেক্ষ) ভেরিয়েন্স অনুমানের ডিনোমেনেটর হ'ল সেখানে পর্যবেক্ষণ রয়েছে এবং কেবলমাত্র একটি পরামিতি অনুমান করা হচ্ছে।এন
একই টোকেন দিয়ে আমি ভাবছি যে যখন দুটি পরামিতি অনুমান করা হচ্ছে তখন কেন কোভারিয়েন্সের ডিনোমিনিটারটি হওয়া উচিত নয় ?
(নিরপেক্ষ) ভেরিয়েন্স অনুমানের ডিনোমেনেটর হ'ল সেখানে পর্যবেক্ষণ রয়েছে এবং কেবলমাত্র একটি পরামিতি অনুমান করা হচ্ছে।এন
একই টোকেন দিয়ে আমি ভাবছি যে যখন দুটি পরামিতি অনুমান করা হচ্ছে তখন কেন কোভারিয়েন্সের ডিনোমিনিটারটি হওয়া উচিত নয় ?
উত্তর:
একটি বিশেষ ক্ষেত্রে আপনাকে অন্তর্দৃষ্টি দেওয়া উচিত; নিম্নলিখিত সম্পর্কে চিন্তা করুন:
আপনি খুশি যে পরেরটি বেসেল সংশোধনের কারণে।
কিন্তু প্রতিস্থাপন দ্বারা এক্স মধ্যে ^ সি ণ বনাম ( এক্স , ওয়াই ) সাবেক জন্য দেয় Σ এন আমি = 1 ( এক্স আমি - ¯ এক্স ) ( এক্স আমি - ¯ এক্স ) , এখন আপনি কী মনে করেন সবচেয়ে ভাল খালিটি পূরণ করতে পারে?
একটি দ্রুত এবং ময়লা উত্তর ... প্রথম বিবেচনা করা যাক ; যদি আপনি ছিল এন পর্যবেক্ষণ পরিচিত প্রত্যাশিত মান সঙ্গে ই ( এক্স ) = 0 আপনি ব্যবহার করেন 1 প্রকরণটি অনুমান করতে।
প্রত্যাশিত মান হচ্ছে অজানা, আপনি আপনার রুপান্তর করতে পারেন পর্যবেক্ষণ মধ্যে এন - 1 পরিচিত প্রত্যাশিত মান সঙ্গে পর্যবেক্ষণ গ্রহণ করে একজন আমি = এক্স আমি - এক্স 1 জন্য আমি = 2 , ... , এন । ডিনোমিনেটরে একটি এন - 1 দিয়ে আপনি একটি সূত্র পাবেন - তবে এ আমি স্বাধীন নই এবং আপনাকে এটি বিবেচনায় নিতে হবে; শেষে আপনি সাধারণ সূত্রটি খুঁজে পাবেন।
এখন সহভেদাংক জন্য আপনাকে একই ধারণা ব্যবহার করতে পারেন: যদি প্রত্যাশিত মান ছিল ( 0 , 0 ) , আপনি একটি ছিল চাই 1সূত্রে এন । অন্যান্য সমস্ত পর্যবেক্ষণকৃত মানগুলিতে(এক্স1,ওয়াই1)বিয়োগ করেআপনিপরিচিত প্রত্যাশিত মান সহn-1 টিপর্যবেক্ষণ পাবেন ... এবং একটি1সূত্রের n - 1 - আবারও, এটি বিবেচনায় নেওয়ার জন্য কিছুটা নির্ভরশীলতার পরিচয় দেয়।
দ্রষ্টব্য যে কাজ করতে পরিচ্ছন্ন উপায় একটি orthonormal ভিত্তিতে নির্বাচন হয় হলো, এন - 1 ভেক্টর গ 1 , ... , গ N - 1 ∈ আর এন যেমন যে
তারপরে আপনি ভেরিয়েবলগুলি A i = ∑ j c i j X j এবং B i = ∑ j c i j Y j সংজ্ঞায়িত করতে পারেন । ( একটি আমি , বি আমি ) স্বাধীন, প্রত্যাশিত আছে মান ( 0 , 0 ) এবং মূল ভেরিয়েবল চেয়ে একই ভ্যারিয়েন্স / সহভেদাংক আছে।
সমস্ত বিষয় হ'ল আপনি যদি অজানা প্রত্যাশা থেকে মুক্তি পেতে চান তবে আপনি একটি (এবং শুধুমাত্র একটি) পর্যবেক্ষণ বাদ দিন। এটি উভয় ক্ষেত্রে একই কাজ করে।
Here is a proof that the p-variate sample covariance estimator with denominator is an unbiased estimator of the covariance matrix:
.
To show:
Proof:
Next:
, with the final denominator , is unbiased. The off-diagonal elements of are your individual sample covariances.
Additional remarks:
The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.
Step (1) and (2) use the fact that
Step (2) uses the fact that
I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.
1) Start .
2) Sample covariance is proportional to . Lose two ; one from , one from resulting in .
3) However, only contains separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.
As a trite example, consider that
,
and that does not include irrationals and fractions, e.g. , so that when we multiply two number series together and examine their product, all we see are the from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.
In other words, without loss of generality we can write
for some and ,
i.e., , and, . From the 's, which then clearly have , the covariance formula becomes
.
Thus, the answer to the question is that the are halved by grouping.
Hold
?