কিছু সংখ্যক কৌশল ব্যবহারের পরিবর্তে ইএমের প্রয়োজন হয় না কারণ ইএমও একটি সংখ্যাসূচক পদ্ধতি। সুতরাং এটি নিউটন-রাফসনের বিকল্প নয়। আপনি যখন আপনার ডেটা ম্যাট্রিক্সে মানগুলি মিস করছেন তখন ইএম নির্দিষ্ট ক্ষেত্রে হয়। একটি নমুনা বিবেচনা যা শর্তসাপেক্ষ ঘনত্ব আছে চ এক্স | Θ ( x | θ ) । তারপর এই লগ-সম্ভাবনা নেই
ঠ ( θ ; এক্স ) = ঠ ণ ছ চ এক্স | Θএক্স= ( এক্স1, । । । , এক্সএন)চএক্স| Θ( x | θ )
এখন ধরুন আপনার কাছে এমন একটি সম্পূর্ণ ডেটা সেট নেই যা এক্স পর্যবেক্ষণ করা ডেটা ওয়াই এবং অনুপস্থিত (বা প্রচ্ছন্ন) ভেরিয়েবল জেড , যেমন এক্স = ( ওয়াই , জেড ) দিয়ে তৈরি । তারপরে পর্যবেক্ষণ করা তথ্যের লগ-সম্ভাবনা হ'ল
l o b s ( θ , Y ) = l o g ∫ f X | Θ ( Y , z | θ ) ν z (
l ( θ ; এক্স)) = l ও জিচএক্স| Θ( এক্স| θ)
এক্সওয়াইজেডএক্স= ( ওয়াই, জেড)
সাধারণভাবে আপনি সরাসরি এই অবিচ্ছেদ্য গণনা করতে পারবেন না এবং আপনি
l o b s ( θ , Y ) এর জন্য কোনও বদ্ধ-ফর্ম সমাধান পাবেন না। এই উদ্দেশ্যে আপনি EM পদ্ধতিটি ব্যবহার করেন। দুটিবার আছেযা
আমার সময়েরজন্য পুনরাবৃত্তি হয়। এই
( i + 1 ) টি এইচ পদক্ষেপে এটি প্রত্যাশা পদক্ষেপ যা আপনি
Q ( θ | θ ( i ) ) = E θ ( i ) [ l ( compঠও বি এস( θ , Y)) = l ও জি∫চএক্স| Θ( ওয়াই, জেড| θ) νz- র( d)z- র)
ঠও বি এস( θ , Y))আমি( আমি + 1 )t h
যেখানে
θ ( আমি ) এর অনুমান
Θ মধ্যে
আমি টি জ ধাপ। তারপর বৃহদায়ন পদক্ষেপ যার মাধ্যমে আপনি পূর্ণবিস্তার গনা
প্রশ্ন ( θ | θ ( আমি ) ) সম্মান সঙ্গে
θ এবং সেট
θ ( আমি + + 1 ) = মি একটি এক্স প্রশ্ন ( θ | θ আমি )প্রশ্ন ( θ | θ)( i )) = ইθ( i )[ l ( θ ; এক্স)| ওয়াই]
θ( i )Θআমিt hপ্রশ্ন ( θ | θ)( i ))θθ( আমি + 1 )= m a x Q ( θ | θআমি)। আপনি তারপরে এই পদক্ষেপগুলি পুনরাবৃত্তি করুন যতক্ষণ না পদ্ধতিটি কোনও মূল্যতে রূপান্তর করে যা আপনার অনুমান হবে।
আপনার যদি পদ্ধতিটির আরও তথ্যের প্রয়োজন হয় তবে এর বৈশিষ্ট্য, প্রমাণ বা অ্যাপ্লিকেশনগুলি কেবলমাত্র উইকি সম্পর্কিত নিবন্ধটি দেখুন।