আমি জানি যে
তবে আমি পেলাম চূড়ান্ত সূত্রটি আমি গণনা করার চেষ্টা করছি
আমি কীভাবে পেতে পারি তা নিশ্চিত নই
এটাই কি সঠিক পথ?
আমি নিশ্চিত যে এটি সহজ, সুতরাং কেউ যদি আমাকে সঠিক দিকে ঠেলে দেওয়ার ইঙ্গিত দেয় তবে উত্তরটি কিছুটা অপেক্ষা করতে পারে।
আমি জানি যে
তবে আমি পেলাম চূড়ান্ত সূত্রটি আমি গণনা করার চেষ্টা করছি
আমি কীভাবে পেতে পারি তা নিশ্চিত নই
এটাই কি সঠিক পথ?
আমি নিশ্চিত যে এটি সহজ, সুতরাং কেউ যদি আমাকে সঠিক দিকে ঠেলে দেওয়ার ইঙ্গিত দেয় তবে উত্তরটি কিছুটা অপেক্ষা করতে পারে।
উত্তর:
This is a self-study question, so I provide hints that will hopefully help to find the solution, and I'll edit the answer based on your feedbacks/progress.
The parameter estimates that minimize the sum of squares are
Edit:
We have
Edit 2
Why do we have ?
The assumed model is , where the are independant and identically distributed random variables with and .
Once we have a sample, the are known, the only random terms are the . Recalling that for a random variable and a constant , we have . Thus,
I got it! Well, with help. I found the part of the book that gives steps to work through when proving the formula (thankfully it doesn't actually work them out, otherwise I'd be tempted to not actually do the proof). I proved each separate step, and I think it worked.
I'm using the book's notation, which is:
1) Show that can be written as where and .
This was easy because we know that
2) Use part 1, along with to show that and are uncorrelated, i.e. show that .
and because the are i.i.d., when .
When , , so we have:
3) Show that can be written as . This seemed pretty easy too:
4) Use parts 2 and 3 to show that :
I believe this all works because since we provided that and are uncorrelated, the covariance between them is zero, so the variance of the sum is the sum of the variance. is just a constant, so it drops out, as does later in the calculations.
5) Use algebra and the fact that :