চলন্ত-গড় মডেল ত্রুটির শর্তাদি


17

এটি বক্স-জেনকিনস এমএ মডেলগুলির একটি প্রাথমিক প্রশ্ন। আমি বুঝতে পারছি যে, একটি এম এ মডেল মূলত সময় সিরিজের একটি রৈখিক রিগ্রেশনের হয় মান Y পূর্ববর্তী ত্রুটি নিয়মের বিরোধী et,...,etn । অর্থাৎ, পর্যবেক্ষণ Y এর পূর্ববর্তী মানগুলি বিরুদ্ধে প্রথমে প্রতিরোধ করা হয় , ওয়াই টি - এনYt1,...,Ytn এবং তারপর এক বা একাধিক YY^ মান এম এ মডেল জন্য ত্রুটি পদ হিসেবে ব্যবহৃত হয়।

তবে এরিমা (0, 0, 2) মডেলটিতে ত্রুটির শর্তাদি কীভাবে গণনা করা হয়? যদি এমএ মডেলটি অটোরিগ্রেসিভ অংশ ছাড়াই ব্যবহৃত হয় এবং কোনও প্রাক্কলিত মান হয় না, তবে আমি কীভাবে সম্ভবত একটি ত্রুটি শব্দ থাকতে পারি?


1
না, আমার মনে হয় আপনি একটি এম এ (ঢ) মডেল, যেখানে রিগ্রেশন শুধুমাত্র পদ হয় সংজ্ঞা বিভ্রান্তিকর হয় এর, তার প্রাক্কলন সঙ্গে, যেখানে টি - আমি এর তথ্য থেকে অনুমান করা হয় । etieti
শি'আন

1
আপনার প্রশ্নের মূল সমস্যাটি হ'ল আপনি বলে যে এমএ মডেলটি মূলত একটি লিনিয়ার রিগ্রেশন। এটি কেবল সত্য নয়, যেহেতু আমরা ত্রুটির শর্তাদি পালন করি না।
এমপিক্টাস

আমি মনে করি ত্রুটি মেয়াদ হয় আসলে , যেখানে ওয়াই হয় ( ওয়াই | ওয়াই টি , , T - এন ) বা শুধু ওয়াই টি - ওয়াই টি - 1 । এজন্য একটি এমএ মডেলের প্যারামিটার অনুমানটি ওয়াই আংশিক স্বতঃসংশোধনের ক্রিয়ায় পুনরাবৃত্ত প্যাটার্ন থেকে উদ্ভূত হয়, এটিই বাকী অংশগুলির আচরণ। পরিবর্তে এআর প্যারামিটার অনুমান, এসিএফ (ওয়াই) এর পুনরাবৃত্ত প্যাটার্নের উপর ভিত্তি করে।YtYt^Y^E(Y|Yt,...,tn)YtYt1Y
রবার্ট কুব্রিক

উত্তর:


20

এমএ মডেল অনুমান:

আসুন আমরা 100 টাইম পয়েন্ট সহ একটি সিরিজ ধরে নিই এবং বলি এটি এমএ (1) মডেল দ্বারা কোনও বাধা ছাড়াই চিহ্নিত করা হয়েছে। তারপরে মডেলটি দিয়েছেন

yt=εtθεt1,t=1,2,,100(1)

এখানে ত্রুটি শব্দটি পালন করা হয় না। সুতরাং এটি পেতে, বক্স ইত্যাদি। সময় সিরিজ বিশ্লেষণ: পূর্বাভাস এবং নিয়ন্ত্রণ (তৃতীয় সংস্করণ) , পৃষ্ঠা 228 , ত্রুটি শব্দটি পুনরাবৃত্তভাবে দ্বারা গণনা করা হয়েছে,

εt=yt+θεt1

তাই জন্য ত্রুটি মেয়াদ হয়, ε 1 = Y 1 + + θ ε 0 এখন আমরা মান না জেনেই এই গনা করতে পারবে না θ । সুতরাং এটি পেতে, আমাদের মডেলটির প্রাথমিক বা প্রাথমিক অনুমান গণনা করতে হবে, বক্স এট আল দেখুন। উল্লিখিত বইয়ের সেকশন .3.৩.২ পৃষ্ঠা ২০২ অনুসারে ,t=1

ε1=y1+θε0
θ

এটি দেখানো হয়েছে যে এমএ ( কিউ ) প্রক্রিয়াটির প্রথম অটোকোরিলেশনগুলি ননজারো এবং মডেলটির পরামিতিগুলির ক্ষেত্রে ρ কে = - θ কে + θ 1 θ কে + 1 + θ 2 θ কে + 2 হিসাবে লেখা যেতে পারে + + θ কিউ - কে θ কিউqq প্রকাশের জন্য উপরে ρ 1 , ρ 2, ρ কুই পদ θ 1 , θ 2 , , θ কুই , সরবরাহ কুই সমীকরণ কুই অজানা। প্রিলিমিনারি অনুমান θ গুলি অনুমান বদলে পাওয়া যেতে পারে r জন্য ρ উপরে সমীকরণের

ρk=θk+θ1θk+1+θ2θk+2++θqkθq1+θ12+θ22++θq2k=1,2,,q
ρ1,ρ2,ρqθ1,θ2,,θqqqθrkρk

মনে রাখবেন যে অনুমানযুক্ত স্বতঃসংশোধন। বিভাগ 6.3 এ আরও আলোচনা রয়েছে - পরামিতিগুলির প্রাথমিক অনুমান , দয়া করে এটি পড়ুন। এখন ধরে নেওয়া, আমরা প্রাথমিক অনুমান obtain = 0.5 । তারপরে, ε 1 = y 1 + 0.5 ε 0 এখন, অন্য একটি সমস্যা হ'ল আমাদের ε 0 এর মূল্য নেই কারণ এটিrkθ=0.5

ε1=y1+0.5ε0
ε0 1 আরম্ভ করা হয়, এবং তাই আমরা কম্পিউট পারেন ε 1 । ভাগ্যক্রমে, দুটি পদ্ধতি দুটি এটি অর্জন করে,tε1
  1. শর্তাধীন সম্ভাবনা
  2. শর্তহীন সম্ভাবনা

বক্স এট আল অনুযায়ী অনুচ্ছেদ 7.1.3 পৃষ্ঠা 227 , মান যদি একটি পড়তা হিসাবে শুন্যতে প্রতিস্থাপিত করা যাবে এনε0n মধ্যপন্থী বা বড়, এই পদ্ধতি শর্তসাপেক্ষ সম্ভাবনা নেই। অন্যথায়, নিঃশর্ত সম্ভাবনা ব্যবহার করা হয়, যেখানে এর মান ব্যাক পূর্বাভাস, বক্স et al দ্বারা প্রাপ্ত হয়। এই পদ্ধতি সুপারিশ। বিভাগের 7.1.4 পৃষ্ঠা 231 -এ ফিরে-পূর্বাভাস সম্পর্কে আরও পড়ুন ।ε0

প্রাথমিক অনুমান এবং ε 0 এর মান পাওয়ার পরেε0 পরে, অবশেষে আমরা ত্রুটি শব্দটির পুনরাবৃত্ত গণনা নিয়ে এগিয়ে যেতে পারি। তারপরে চূড়ান্ত পর্যায়ে মডেলটির প্যারামিটারটি অনুমান করা , মনে রাখবেন এটি আর প্রাথমিক অনুমান নয়।(1)

পরামিতি প্রাক্কলনে , আমি অরৈখিক প্রাক্কলন পদ্ধতি, বিশেষ করে Levenberg-Marquardt অ্যালগরিদম ব্যবহার যেহেতু এম এ মডেলের তার পরামিতি উপর অরৈখিক হয়।θ

সামগ্রিকভাবে, আমি আপনাকে বাক্স এট আল পড়ার জন্য সুপারিশ করব সময় সিরিজ বিশ্লেষণ: পূর্বাভাস এবং নিয়ন্ত্রণ (তৃতীয় সংস্করণ)


আপনি কি ব্যাখ্যা করতে পারবেন কি ? rk
পীযূষ দিব্যাঙ্কর

4

একজন গসিয়ান এম এ (থ) মডেল সংজ্ঞায়িত করা হয় হিসাবে (না শুধুমাত্র বক্স এবং জেনকিন্সের!) সুতরাং এমএ (কিউ) মডেলটি একটি "খাঁটি" ত্রুটি মডেল, ডিগ্রি কিউ নির্ধারণ করে যে কতটা পারস্পরিক সম্পর্ক ফিরে যায়।

Yt=i=1qϑieti+σet,etiidN(0,1)
q

1
কোথা থেকে এসেছে সে সম্পর্কে আমি এখনও পরিষ্কার নই । টি কি এলোমেলো পরিবর্তনশীল? আমি তাই মনে করি না, অন্যথায় কেন Q সম্পর্কগুলির সন্ধানে বিরক্ত হবে ? etetq
রবার্ট কুব্রিক 18

1
আপনার সূত্রে বিয়োগ কেন? সাধারণত বিয়োগটি এআর মডেলগুলির জন্য। গাণিতিকভাবে কোনও সমস্যা নয়, আমি কেবল কৌতূহলী, যেহেতু এমএ মডেলগুলিতে আমি কখনও মাইনাস দেখিনি।
এমপিক্টাস

3
@ রবার্টকুব্রিক, আপনি কি নলিত পচে যাওয়া উপপাদ্য সম্পর্কে সচেতন ? প্রতিটি নিশ্চল প্রক্রিয়া তার সংশ্লিষ্ট নতুনত্ব প্রক্রিয়া, কোথা থেকে পদ যে হয়েছে আসা। et
এমপিক্টাস

1
YE(Y)

1

YYt1,...,YtnYY^Yet1 and et2 yielding an error process et which will be uncorrelated for all i=3,4,,,,t .We then have two regression coefficients: θ1 representing the impact of et1 and θ2 representing the impact of et2. Thus et is a white noise random series containing n-2 values. Since we have n-2 estimable relationships we start with the assumption that e1 and e2 are equal to 0.0 . Now for any pair of θ1 and θ2 we can estimate the t-2 residual values. The combination that yields the smallest error sum of squares would then be the best estimates of θ1 and θ2.


What are the 2 other predictor series? I am asking because when I look at the literature I have it's never clearly specified. Are these 2 other series unrelated to Y? I had the impression that all ARIMA formulation is limited to the Y series.
Robert Kubrick

1
The 2 predictors are the lags of the error terms. Since these are not known a priori since we do not know the error terms before we begin is why this has to be treated by non-linear estimation.The confusion you are having is that a model that is finite in the past ( i.e. an AR MODEL ) is potentially infinite in the errors AND a model that is finite in the errors ( i.e. an MA MODEL) is potentially infinite in the past of Y.The reason one selects an AR MODEL versus an MA MODEL is for parsimony. Sometimes we construct an ARMA MODEL which blends both the history of Y and the history of the errors.
IrishStat

1
As I commented in the other answer, what I am still missing is what's the optimal forecast for Y, which is used to calculate the innovation etn.
Robert Kubrick

1

See my post here for an explanation of how to understand the disturbance terms in a MA series.

You need different estimation techniques to estimate them. This is because you cannot first get the residuals of a linear regression and then include the lagged residual values as explanatory variables because the MA process uses the residuals of the current regression. In your example you are making two regression equations and using residuals from one into the other. This is not what an MA process is. It cannot be estimated with OLS.

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.