সর্বাধিক পোস্টেরিয়েরি অনুমানের উদাহরণ


11

আমি সর্বাধিক সম্ভাবনার অনুমান এবং সর্বাধিক উত্তরোত্তর অনুমান সম্পর্কে পড়ছি এবং এখন পর্যন্ত আমি সর্বাধিক সম্ভাবনা অনুমানের সাথে কংক্রিটের উদাহরণগুলি পেয়েছি। সর্বাধিক পোস্টেরিয়েরি অনুমানের কয়েকটি বিমূর্ত উদাহরণ আমি পেয়েছি, তবে এটির সংখ্যার সাথে এখনও কংক্রিটের কিছু নেই: এস

এটি খুব বিস্ময়কর হতে পারে, কেবল বিমূর্ত পরিবর্তনশীল এবং ফাংশনগুলির সাথে কাজ করে এবং এই বিমূর্ততায় ডুবে না যাওয়ার জন্য, সময়ে সময়ে বাস্তব বিশ্বের সাথে জিনিসগুলি যুক্ত করে রাখা ভাল। তবে অবশ্যই এটি আমার (এবং কিছু অন্যান্য লোকের) পর্যবেক্ষণ :)

সুতরাং, কেউ কি আমাকে তার সংখ্যার সাথে সর্বাধিক পোস্টেরিয়েরি অনুমানের একটি সহজ, তবে দৃ concrete় উদাহরণ দিতে পারেন? এটি অনেক সাহায্য করবে :)

ধন্যবাদ!

আমি এই প্রশ্নটি মূলত এমএসইতে পোস্ট করেছি, তবে সেখানে কোনও উত্তর পাইনি:

/math/449386/example-of-maximum-a-posteriori-estimation

আমি এখানে ক্রস পোস্টিংয়ে প্রদত্ত নির্দেশাবলী অনুসরণ করেছি:

http://meta.math.stackexchange.com/questions/5028/how-do-i-move-a-post-to-another-forum-like-cv-stats

উত্তর:


6

1 ম উদাহরণ

একটি সাধারণ ক্ষেত্রে প্রাকৃতিক ভাষা প্রক্রিয়াকরণের প্রসঙ্গে ট্যাগিং করা হয়। বিস্তারিত ব্যাখ্যার জন্য এখানে দেখুন । ধারণাটি মূলত একটি বাক্যে কোনও শব্দের সংক্ষিপ্ত বিভাগ নির্ধারণ করতে সক্ষম হয় (এটি কি একটি বিশেষ্য, বিশেষণ, ...)। মূল ধারণাটি হ'ল আপনার কাছে আপনার ভাষার একটি মডেল রয়েছে যা একটি লুকানো মার্কভ মডেল ( এইচএমএম ) সমন্বিত। এই মডেলটিতে, লুকানো রাজ্যগুলি বর্ণবাদী বিভাগগুলির সাথে মিলিত হয় এবং পর্যবেক্ষিত রাজ্যগুলি প্রকৃত শব্দের সাথে মিলিত হয়।

সম্পর্কিত গ্রাফিক্যাল মডেলের ফর্ম রয়েছে,

একটি ক্যানোনিকাল এইচএমএম এর গ্রাফিক্যাল মডেল

যেখানে শব্দের অনুক্রম এবং ক্রম ট্যাগের।এক্স = ( x এর 1 , , x এন )y=(y1,...,yN)এক্স=(এক্স1,,এক্সএন)

একবার প্রশিক্ষণপ্রাপ্ত হওয়ার পরে লক্ষ্যটি হ'ল বর্ণিত বিভাগগুলির সঠিক ক্রম যা কোনও প্রদত্ত ইনপুট বাক্যটির সাথে সঙ্গতিপূর্ণ তা সন্ধান করা। এটি ট্যাগগুলির ক্রম সন্ধানের জন্য প্রস্তুত করা হয়েছে যা ভাষার সর্বাধিক সামঞ্জস্যপূর্ণ / সম্ভবত ভাষা মডেল দ্বারা উত্পাদিত হয়েছে সম্ভবত

(Y)=একটিRমিএকটিএক্সএক্সওয়াইপি(এক্স)পি(Y|এক্স)

দ্বিতীয় উদাহরণ

আসলে, একটি ভাল উদাহরণ হ'ল রিগ্রেশন। এটি বুঝতে সহজ কারণেই নয়, সর্বাধিক সম্ভাবনার (এমএল) এবং সর্বাধিক একটি পোস্টেরিয়েরি (এমএপি) এর মধ্যে পার্থক্যও পরিষ্কার করে দেয় because

মূলত, সমস্যাটি হ'ল নমুনা দ্বারা প্রদত্ত কিছু ফাংশনকে ভিত্তি ফাংশনগুলির একটি সেট, যেখানে বেস ফাংশন এবং the ওজন। এটি সাধারণত অনুমান করা হয় যে নমুনাগুলি গাউসের আওয়াজ দ্বারা দূষিত হয়েছে। অতএব, আমরা যদি ধরে নিই যে লক্ষ্য ফাংশনটি ঠিক যেমন একটি রৈখিক সংমিশ্রণ হিসাবে রচনা করা যায় তবে আমাদের আছে,টি

Y(এক্স;W)=ΣআমিWআমিφআমি(এক্স)
φ(এক্স)W

টি=Y(এক্স;W)+ +ε

সুতরাং আমাদের কাছে এই সমস্যার এমএল সমাধান হ্রাস করার সমান,পি(টি|W)=এন(টি|Y(এক্স;W))

(W)=12Σএন(টিএন-Wটিφ(এক্সএন))2

যা সুপরিচিত সর্বনিম্ন স্কোয়ার ত্রুটির সমাধান দেয়। এখন, এমএল শব্দে প্রেরণাদায়ক, এবং নির্দিষ্ট পরিস্থিতিতে স্থিতিশীল নয়। এমএপি আপনাকে ওজনগুলিতে সীমাবদ্ধতা রেখে আরও ভাল সমাধানগুলি তুলতে দেয়। উদাহরণস্বরূপ, একটি সাধারণ কেস হ'ল রিজ রিগ্রেশন, যেখানে আপনি ওজনকে যথাসম্ভব ছোট করার আদর্শ দাবি করেন,

(W)=12Σএন(টিএন-Wটিφ(এক্সএন))2+ +λΣW2

যা ওজন আগে গাউসিয়ান সেট করার সমতুল্য । সব মিলিয়ে আনুমানিক ওজনএন(W|0,λ-1আমি)

W=একটিRমিআমিএনWপি(W;λ)পি(টি|W;φ)

লক্ষ করুন যে এমএপ-এ ওজনগুলি এমএল এর মতো পরামিতি নয়, তবে এলোমেলো পরিবর্তনশীল। তবুও, এমএল এবং এমএপি উভয়ই বিন্দু অনুমানকারী (তারা সর্বোত্তম ওজনের বিতরণের পরিবর্তে ওজনের একটি সর্বোত্তম সেট ফেরত দেয়)।


+1 হাই @ জাজোপা আপনার জবাবের জন্য আপনাকে ধন্যবাদ :) তবে আমি আরও
নিবিড়

আবার আপনাকে ধন্যবাদ @ জুমপা। আপনি কিভাবে এখন এটি এগিয়ে যাবে যা argmin ছোট? আপনি কি নিউটনের পদ্ধতি ইত্যাদির মতো গ্রেডিয়েন্ট বা কিছু পুনরাবৃত্ত অ্যালগরিদম ব্যবহার করেন? W
jjepsuomi

1
ঠিক। যে কেউ এটি সরাসরি সমাধান করতে পারে (একটি বন্ধ ফর্ম সমাধান রয়েছে) তবে ম্যাট্রিক্স ইনভার্টিংয়ের সাথে জড়িত । এবং এটিই পুনরাবৃত্ত পদ্ধতিগুলি ব্যবহার করার কারণ (বিশেষত যখন উচ্চ মাত্রিক সমস্যাগুলি মোকাবেলা করা হয়)। হে(এন3)
jpmuc

এ প্রথম সমীকরণটি কি ?? (Y)=একটিRমিএকটিএক্সএক্সএক্সপি(এক্স)পি(Y|এক্স)
লারনার ঝাং
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.