উদ্ধৃতিটি হ'ল "লজিকাল স্লাইট অফ অফ হ্যান্ড" (দুর্দান্ত অভিব্যক্তি!), যেমনটি ওপিকে দেওয়া মন্তব্যে @ হুবার লিখেছেন। মুদ্রার একটি মাথা এবং একটি পুচ্ছ রয়েছে তা দেখার পরে আমরা কেবল সত্যই বলতে পারি, তা হ'ল "মাথা" এবং "লেজ" উভয়ই অসম্ভব নয়। সুতরাং আমরা একটি বিচ্ছিন্ন পূর্বে বাতিল করতে পারি যা সম্ভাব্যতার সমস্ত ভর "মাথা" বা "লেজ" এর উপরে রাখে। তবে এটি নিজে থেকেই ইউনিফর্মের আগে নিয়ে যায় না: প্রশ্নটি আরও সূক্ষ্ম। আসুন প্রথমে কিছুটা পটভূমির সংক্ষিপ্তসার করি। আমরা সম্ভাবনা Bayesian অনুমান জন্য বিটা-দ্বিনাম অনুবন্ধী মডেল বিবেচনাধীন একটি মুদ্রা প্রধানগণ দেওয়া স্বাধীন ও অভিন্নরুপে বিতরণ (শর্তসাপেক্ষে উপর মুদ্রা tosses)।θnθp(θ|x)যখন আমরা পালন মধ্যে মাথা tosses:xn
p(θ|x)=Beta(x+α,n−x+β)
আমরা বলতে পারি যে এবং একটি "পূর্বের সংখ্যক মাথার" এবং "পূর্বের সংখ্যাগুলির পূর্ব সংখ্যা" (সিউডোট্রিয়াল) এর ভূমিকা পালন করে এবং একটি কার্যকর নমুনার আকার হিসাবে ব্যাখ্যা করা যেতে পারে। আমরা পূর্বে গড় একটি ভরযুক্ত গড় হিসাবে অবর গড় জন্য সুপরিচিত অভিব্যক্তি ব্যবহার করে এই ব্যাখ্যা উতরান পারে এবং নমুনা গড় ।αβα+βαα+βxn
দিকে তাকালে আমরা দুটি বিবেচনা করতে পারি:p(θ|x)
- যেহেতু (সর্বাধিক অজ্ঞতা) সম্পর্কে আমাদের কোনও পূর্ব জ্ঞান নেই , তাই আমরা স্বজ্ঞাতভাবে কার্যকর নমুনার আকার "ছোট" হওয়ার আশা করি। যদি এটি বড় হয়, তবে পূর্ববর্তীরা যথেষ্ট পরিমাণে জ্ঞানকে অন্তর্ভুক্ত করবে। এটি দেখার আরেকটি উপায় লক্ষণীয় যে এবং যদি এবং সাথে "ছোট" হয় তবে উত্তরোত্তর সম্ভাবনাগুলি আমাদের পূর্বের উপর অনেক বেশি নির্ভর করে না, কারণ
এবং । আমরা প্রত্যাশা করব যে পূর্ববর্তী যা প্রচুর জ্ঞানকে অন্তর্ভুক্ত করে না তা অবশ্যই কিছু তথ্যের আলোকে অপ্রাসঙ্গিক হয়ে উঠতে হবে।θα+βαβxn−xx+α≈xn−x+β≈n−x
এছাড়াও, যেহেতু পূর্বে গড়, এবং আমরা বিতরণের সম্পর্কে কোন পূর্বে জ্ঞান আছে
, আমরা আশা । এটি প্রতিসামতার যুক্তি - যদি আমরা আরও ভালভাবে না জানি, আমরা প্রাইরি আশা করবো না যে বিতরণটি 0 বা 1 এর দিকে প্রসারিত হয়েছে The বিটা বিতরণটি হ'লμprior=αα+βθμprior=0.5
f(θ|α,β)=Γ(α+β)Γ(α)+Γ(β)θα−1(1−θ)β−1
এই এক্সপ্রেশনটি যদি
হয় তবে কেবল প্রতিসাম্য ।θ=0.5α=β
এই দুটি কারণে, পূর্বে যাই হোক না কেন (বিটা পরিবারের অন্তর্ভুক্ত - মনে রাখবেন, কনজুগেট মডেল!) আমরা ব্যবহার করতে বেছে নিই, আমরা স্বজ্ঞাতভাবে আশা করি যে এবং "ছোট"। আমরা দেখতে পাচ্ছি যে বিটা-বাইনোমিয়াল মডেলের তিনটি সাধারণভাবে ব্যবহৃত অ-তথ্যমূলক প্রিরিয়ারগুলি এই বৈশিষ্ট্যগুলি ভাগ করে, তবে এগুলি বাদে, তারা একেবারেই আলাদা। এবং এটি সুস্পষ্ট: কোনও পূর্ব জ্ঞান, বা "সর্বোচ্চ অজ্ঞতা" কোনও বৈজ্ঞানিক সংজ্ঞা নয়, তাই কী ধরণের প্রাক্কলন "সর্বাধিক অজ্ঞতা" প্রকাশ করে, অর্থাত্ কোন অ-তথ্যমূলক পূর্ব কী, আপনি "সর্বাধিক" বলতে আসলে যা বোঝায় তার উপর নির্ভর করে অজ্ঞতা "।α=β=cc
আমরা এমন একটি পূর্বনির্ধারণ বেছে নিতে পারি যা বলে যে জন্য সমস্ত মানগুলি উপযোগী , কারণ আমরা এর চেয়ে ভাল আরও জানি না। আবার, একটি প্রতিসম যুক্তি। এটি :θα=β=1
f(θ|1,1)=Γ(2)2Γ(1)θ0(1−θ)0=1
for এর জন্য , অর্থাত্ ক্রুশকে আগে ব্যবহৃত ইউনিফর্ম। আরও আনুষ্ঠানিকভাবে, বিটা বিতরণের ডিফারেন্সিয়াল এনট্রপির জন্য অভিব্যক্তি লিখে, আপনি দেখতে পাবেন যে এটি সর্বোচ্চ হয় যখন
। এখন, এন্ট্রপিকে প্রায়শই একটি বিতরণ দ্বারা পরিচালিত "তথ্যের পরিমাণ" এর একটি পরিমাপ হিসাবে ব্যাখ্যা করা হয়: উচ্চতর এনট্রপি কম তথ্যের সাথে মিলে যায়। সুতরাং, আপনি এই সর্বোচ্চ এনট্রপি নীতিটি ব্যবহার করে বলতে পারেন যে, বিটা পরিবারের অভ্যন্তরে, পূর্বের মধ্যে কম তথ্য রয়েছে (সর্বাধিক অজ্ঞতা) এই ইউনিফর্মের পূর্ব।θ∈[0,1]α=β=1
আপনি অপর দৃষ্টিকোণটি বেছে নিতে পারেন, এটি ওপি ব্যবহার করেছেন এবং বলতে পারেন যে কোনও তথ্যই মাথা ও লেজ না দেখায়, অর্থাৎ,
α=β=0⇒π(θ)∝θ−1(1−θ)−1
আমরা এইভাবে যে অগ্রগতি লাভ করি তাকে হালদেনের পূর্ব বলা হয় । The কিছুটা সমস্যা আছে - অবিচ্ছেদ্য অসীম, অর্থাত্ স্বাভাবিককরণের ধ্রুবত নির্বিশেষে যাই হোক না কেন, এটি হতে পারে না একটি উপযুক্ত পিডিএফ রূপান্তরিত। প্রকৃতপক্ষে, হালদেন পূর্বটি একটি যথাযথ পিএমএফ , যা সম্ভাব্যতা 0.5 , ০.০ তে 0.5 এবং জন্য অন্যান্য সমস্ত মানগুলিতে 0 সম্ভাব্যতা রাখে । তবে, চলুন চলুন না - একটানা প্যারামিটারের জন্য , সঠিক পিডিএফের সাথে মিলে না এমন প্রিয়ারদের বলা হয় অনুচিত প্রিয়ারθ−1(1−θ)−1I=[0,1]θ=0θ=1θθ। যেহেতু আগেই উল্লেখ করা হয়েছে যে, বয়েসীয় অনুমানের জন্য গুরুত্বপূর্ণ বিষয়গুলি উত্তরোত্তর বিতরণ, অনুপযুক্ত প্রিরিয়াররা যতক্ষণ না উত্তরাধিকার বন্টন যথাযথ হয় ততক্ষণ গ্রহণযোগ্য। হালদানে পূর্বের ক্ষেত্রে, আমরা প্রমাণ করতে পারি যে যদি আমাদের নমুনায় কমপক্ষে একটি সাফল্য এবং একটি ব্যর্থতা থাকে তবে পরবর্তী পিডিএফ যথাযথ। আমরা কমপক্ষে একটি মাথা এবং একটি লেজ পর্যবেক্ষণ করা হয় সুতরাং আমরা কেবল হালদেন আগে ব্যবহার করতে পারেন।
আরেকটি অনুভূতি রয়েছে যার মধ্যে হালদানে পূর্বেরটিকে অ-তথ্যমূলক হিসাবে বিবেচনা করা যেতে পারে: উত্তরোত্তর বিতরণের গড় এখন
, অর্থাত্, মাথাগুলির নমুনা ফ্রিকোয়েন্সি, যা মুদ্রা ফ্লিপ সমস্যার দ্বি বিন্যাসের মডেলটির জন্য এর ঘন ঘন MLE অনুমান
। এছাড়াও, জন্য বিশ্বাসযোগ্য অন্তরগুলি ওয়াল্ড আত্মবিশ্বাসের অন্তরগুলির সাথে মিলে যায়। যেহেতু ঘনঘনবাদী পদ্ধতিগুলি পূর্বের নির্দিষ্ট করে না, তাই কেউ বলতে পারে যে হালদানে পূর্বেরটি অ-তথ্যমূলক বা শূন্য পূর্বের জ্ঞানের সাথে মিল রয়েছে কারণ এটি ঘন ঘনবাদী দ্বারা "একই" অনুভূতি তৈরি করে।α+xα+β+n=xnθθ
অবশেষে, আপনি এমন একটি পূর্বরূপ ব্যবহার করতে পারেন যা সমস্যার প্যারামিট্রাইজেশনের উপর নির্ভর করে না, অর্থাত্ জেফরিস আগে, যা বিটা-বাইনোমিয়াল মডেলের সাথে সম্পর্কিত s
α=β=12⇒π(θ)∝θ−12(1−θ)−12
এইভাবে 1 এর কার্যকর নমুনা আকারের সাথে 1. জেফরির পূর্বের সুবিধাটি ছিল যে এটি প্যারামিটার স্পেসটির পুনঃনির্মাণের অধীনে অবিস্মরণীয়। উদাহরণস্বরূপ, অভিন্ন এর সমস্ত মানের সমান সম্ভাব্যতা নির্ধারণ করে, ইভেন্টটির "সম্ভাব্য" সম্ভাবনা। যাইহোক, আপনি এই মডেলটিকে লগ-প্রতিক্রিয়া of এর ক্ষেত্রে head পরিবর্তে প্যারাম্যাট্রাইজ করার সিদ্ধান্ত নিতে পারেন । লগ-প্রতিক্রিয়াগুলির ক্ষেত্রে "সর্বাধিক অজ্ঞতা" প্রকাশ করে এমন পূর্ববর্তীটি কী, যা বলে যে ইভেন্ট "হেড" এর জন্য সমস্ত সম্ভাব্য লগ-প্রতিক্রিয়াগুলি সমৃদ্ধযোগ্য? এটি হ্যালডেনের পূর্ব, যেমন এই (সামান্য ক্রিপ্টিক) উত্তরে দেখানো হয়েছেθλ=log(θ1−θ)θ। পরিবর্তে, জেফরিগুলি মেট্রিকের সমস্ত পরিবর্তনের অধীনে আক্রমণাত্মক। জেফরিস বলেছিলেন যে পূর্বের যার কাছে এই সম্পত্তি নেই এটি কোনওভাবে তথ্যবহুল কারণ এটিতে যে সমস্যাটি আপনি প্যারামিট্রাইজ করতে ব্যবহার করেছেন সেই মেট্রিকের তথ্য রয়েছে। তার পূর্বে না।
সংক্ষিপ্তসার হিসাবে, বিটা-বিণোমিয়াল মডেলের আগে একটি অ-তথ্যসূত্রের জন্য কেবল একটি অস্পষ্ট পছন্দ নয়। আপনি যা চয়ন করেন তা নির্ভর করে শূন্য পূর্বের জ্ঞান হিসাবে আপনার অর্থ এবং আপনার বিশ্লেষণের লক্ষ্যগুলির উপর the