বেইস উপপাদ্যে কেন সাধারণীকরণের ফ্যাক্টরটি প্রয়োজন?


20

বয়েস উপপাদ্য

P(model|data)=P(model)×P(data|model)P(data)

এই সব ঠিক আছে। তবে, আমি কোথাও পড়েছি:

মূলত, পি (ডেটা) কোনও স্বাভাবিক ধ্রুবক ছাড়া কিছুই নয়, যেমন একটি ধ্রুবক যা উত্তরীয় ঘনত্বকে একের সাথে সংহত করে তোলে।

আমরা জানি যে এবং 0 পি ( ডেটা | মডেল ) 10P(model)10P(data|model)1

সুতরাং, অবশ্যই 0 এবং 1 এর মধ্যে হওয়া উচিত। এরকম ক্ষেত্রে, উত্তরোত্তরটিকে একের সাথে সংহত করার জন্য কেন আমাদের স্বাভাবিককরণের ধ্রুবক প্রয়োজন?P(model)×P(data|model)


4
আপনি যখন সম্ভাব্য ঘনত্ব নিয়ে কাজ করছেন , যেমনটি এই পোস্টে উল্লিখিত হয়েছে, আপনি আর শেষ করতে পারবেন না 0 <= P(model) <= 1এবং 0 <= P(data/model) <= 1কারণ, এর মধ্যে (বা এমনকি উভয়ই) (এবং এমনকি অসীমও হতে পারে) ছাড়িয়ে যেতে পারে । Stats.stackexchange.com/questions/4220 দেখুন । 1
whuber

1
এটি এর ক্ষেত্রে নয় কারণ এই অস্পষ্ট স্বরলিপিটি কোনও সম্ভাবনার নয়, তথ্যের সংহত সম্ভাবনার প্রতিনিধিত্ব করে।
P(data|model)1
শি'য়ান

উত্তর:


15

প্রথমত , "সম্ভাবনা x পূর্বে" এর অবিচ্ছেদ্য 1 খুব অগত্যা নয়

এটি সত্য নয় যে যদি:

এবং 0 পি ( ডেটা | মডেল ) 10P(model)10P(data|model)1

তারপরে মডেলের প্রতি শ্রদ্ধার সাথে এই পণ্যটির অবিচ্ছেদ্য (প্রকৃতপক্ষে মডেলের পরামিতিগুলিতে) 1 is

প্রদর্শন. দুটি পৃথক ঘনত্বের কল্পনা করুন:

P(model)=[0.5,0.5] (this is called "prior")P(data | model)=[0.80,0.2] (this is called "likelihood")

আপনি যদি উভয়কেই গুণ করেন তবে আপনি পাবেন: যা বৈধ ঘনত্ব নয় কারণ এটি কোনওটির সাথে সংহত না: 0.40 + 0.25 = 0.65

[0.40,0.25]
0.40+0.25=0.65

সুতরাং, অবিচ্ছেদ্য 1 হতে বাধ্য করতে আমাদের কী করা উচিত? নরমালাইজিং ফ্যাক্টরটি ব্যবহার করুন যা হ'ল:

model_paramsP(model)P(data | model)=model_paramsP(model, data)=P(data)=0.65

(দুর্বল স্বরলিপিটির জন্য দুঃখিত I একই জিনিসটির জন্য আমি তিনটি ভিন্ন মত প্রকাশ করেছি কারণ আপনি সম্ভবত এগুলি সমস্ত সাহিত্যে দেখতে পাচ্ছেন)

দ্বিতীয়ত , "সম্ভাবনা" যে কোনও হতে পারে এবং এটি ঘনত্ব হলেও এটির মান 1 এর চেয়েও বেশি হতে পারে

@ শুভর হিসাবে যেমনটি বলেছিলেন যে এই কারণগুলি 0 এবং 1 এর মধ্যে হওয়া দরকার না তাদের প্রয়োজন তাদের অবিচ্ছেদ্য (বা যোগফল) 1 হওয়া উচিত।

তৃতীয় [অতিরিক্ত], "কনজুগেটস" আপনাকে সাধারণীকরণের ধ্রুবকটি খুঁজে পেতে সহায়তা করার জন্য আপনার বন্ধু

আপনি প্রায়শই দেখতে পাবেন:

P(model|data)P(data|model)P(model)

+1 টি। এটিই একমাত্র উত্তর যা উত্তরোত্তরটিকে একের সাথে সংহত করার জন্য কেন স্বাভাবিকীকরণের ধ্রুবকটির মূল প্রশ্নটির মূল সমাধান করে । পরবর্তীকালের পরে আপনি যা করেন (যেমন এমসিসিএম অনুমান বা নিখুঁত সম্ভাবনার গণনা) তা আলাদা বিষয়।
পেড্রো মেডিয়ানো

P(model)=[0.5,0.5]σ2=1μP(μ)=[0.5,0.5]


12

আপনার প্রশ্নের সংক্ষিপ্ত উত্তর হ'ল ডিনোমিনেটর ব্যতীত ডান হাতের অভিব্যক্তিটি কেবল সম্ভাবনা নয়, সম্ভাবনাও নয় , যা কেবল 0 থেকে 1 অবধি হতে পারে "" স্বাভাবিককরণের ধ্রুবক "আমাদের সম্ভাব্যতা অর্জনের অনুমতি দেয় কোনও ইভেন্টের সংঘটন, অন্যটির তুলনায় নিছক সেই ঘটনার আপেক্ষিক সম্ভাবনা বেশি।


8

আপনি ইতিমধ্যে দুটি বৈধ উত্তর পেয়েছেন তবে আমাকে আমার দুটি সেন্ট যুক্ত করতে দিন।

বয়েস উপপাদ্য প্রায়শই সংজ্ঞায়িত হয়:

P(model | data)P(model)×P(data | model)

কারণ আপনার ধ্রুবকের প্রয়োজন হওয়ার একমাত্র কারণ হ'ল এটি 1 টিতে সংহত হয় (অন্যের উত্তর দেখুন)। এটি বেশিরভাগ MCMC সিমুলেশন বায়েশিয়ান বিশ্লেষণের পদ্ধতির ক্ষেত্রে প্রয়োজন হয় না এবং তাই ধ্রুবকটি সমীকরণ থেকে বাদ দেওয়া হয়। তাই বেশিরভাগ সিমুলেশনের জন্য এটি প্রয়োজনও না

আমি ক্রুসকে দেওয়া বর্ণনাটি পছন্দ করি : শেষ কুকুরছানা (ধ্রুবক) নিদ্রাহীন কারণ সূত্রে তার কিছুই করার নেই।

এখানে চিত্র বর্ণনা লিখুন

এছাড়াও অ্যান্ড্রু গেলম্যানের মতো কেউ কেউ ধ্রুবকটিকে "ওভাররেটেড" এবং "ফ্ল্যাট প্রিয়ারগুলি লোকে যখন ব্যবহার করেন মূলত অর্থহীন" হিসাবে বিবেচনা করেন (আলোচনাটি এখানে দেখুন )।


9
কুকুরছানা পরিচয় +1। "এই উত্তরের লেখায় কোনও প্রাণীর ক্ষতি করা হয়নি" :)
আলবার্তো
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.