সম্ভাবনা বনাম বৈশিয়ান বিশ্লেষণের শর্তাধীন বিতরণ


13

আমরা বায়েসের উপপাদ্যটি লিখতে পারি

p(θ|x)=f(X|θ)p(θ)θf(X|θ)p(θ)dθ

যেখানে উত্তরোত্তর, শর্তযুক্ত বিতরণ, এবং পূর্ববর্তী হয়।f ( X | θ ) p ( θ )p(θ|x)f(X|θ)p(θ)

অথবা

p(θ|x)=L(θ|x)p(θ)θL(θ|x)p(θ)dθ

যেখানে উত্তরোত্তর, সম্ভাবনা ফাংশন, এবং পূর্ববর্তী হয় priorএল ( θ | এক্স ) পি ( θ )p(θ|x)L(θ|x)p(θ)

আমার প্রশ্ন

  1. সম্ভাবনামত ফাংশনটি ব্যবহার করে এবং শর্তাধীন বিতরণে বায়েশিয়ান বিশ্লেষণ কেন করা হয়?
  2. আপনি কি কথায় কথায় বলতে পারবেন সম্ভাবনা এবং শর্তাধীন বিতরণের মধ্যে পার্থক্য কী? আমি জানি সম্ভাবনাটি কোনও সম্ভাবনা বিতরণ এবং ।L(θ|x)f(X|θ)

1
এখানে কোন পার্থক্য নেই! সম্ভাবনা হ'ল শর্তসাপেক্ষ বিতরণ , ভাল, এর সাথে আনুপাতিক, যা সমস্ত বিষয়। f(X|θ)
কেজেটিল বি হালওয়ারসেন

1
পূর্বের প্যারামিটার ঘনত্ব । যদি আদায় মূল্য আছে যখন একটি এলোপাতাড়ি ভেরিয়েবলের পর্যবেক্ষিত মান , তারপর সম্ভাবনা ফাংশনের মান হয় অবিকল , মান শর্তাধীন ঘনত্ব এর । পার্থক্য হল যে জন্য সব এর উপলব্ধির । যাইহোক, একটি ফাংশন হিসাবেপি Θ ( θ ) Θ θ x এক্স এল ( θ x ) ( x θ ) এক্স Θ ( এক্স Θ = θ ) এক্স - এক্স Θ ( এক্স Θ = θ ) ডি x = 1 Θ θ x এল ( θ এক্স)ΘpΘ(θ)ΘθxXL(θx) f(xθ)fXΘ(xΘ=θ)X
fXΘ(xΘ=θ)dx=1
Θθ(এবং সংশোধন করা হয়েছে ), হয় না একটি ঘনত্ব:x এল ( θ এক্স ) ডি θ 1L(θx)
L(θx)dθ1
দিলীপ Sarwate

উত্তর:


11

ধরা যাক শর্তসাপেক্ষে ঘনত্বের সাথে প্রদত্ত শর্তসাপেক্ষে প্রদত্ত শর্তসাপেক্ষে আপনার এলোমেলো ভেরিয়েবল (যার মানগুলি আপনার পরীক্ষায় দেখা যাবে) রয়েছে given , । এটি আপনার (postulated) পরিসংখ্যানগত (শর্তসাপেক্ষ) মডেল, এবং শর্তাধীন ঘনত্বের প্রতিটি সম্ভাব্য মান জন্য, প্রকাশ করার (র্যান্ডম) এর প্যারামিটার , মান সম্পর্কে আপনার অনিশ্চয়তা এর, সামনে যদি আপনি কোন এক্সেস আছে বাস্তব তথ্য। শর্তযুক্ত ঘনত্বগুলির সাহায্যে আপনি যেমন উদাহরণস্বরূপ গণনা শর্তাধীন সম্ভাবনাগুলি করতে পারেন Θ = θ এফ এক্স আইΘ (X1,,XnΘ=θআমি = 1 , ... , এন θ Θ এক্স আমি পি { এক্স 1বি 1 , ... , এক্স এনবি এন | Θ = θ } = বি 1 × × বি এন এন Π আমি = 1এক্স আমিΘ ( এক্স আমিθ )fXiΘ(θ)i=1,,nθΘXi

P{X1B1,,XnBnΘ=θ}=B1××Bni=1nfXiΘ(xiθ)dx1dxn,
প্রতিটি জন্য ।θ

আপনার পরীক্ষার এক দৌড়ে লক্ষ্য করা গেছে যে এর মানগুলির (বাস্তবায়ন) এর প্রকৃত নমুনায় অ্যাক্সেস পাওয়ার পরে , পরিস্থিতি পরিবর্তিত হয়: পর্যবেক্ষণযোগ্য সম্পর্কে আর কোনও অনিশ্চয়তা নেই is । মনে করুন যে এলোমেলো কিছু প্যারামিটার স্পেস- মান গ্রহণ করে । এখন, আপনি ঐ পরিচিত (নির্ধারিত) মানের জন্য নির্ধারণ করুন, একটি ফাংশন দ্বারা মনে রাখবেন যে function , "সম্ভাবনা ফাংশন" হিসাবে পরিচিত এটি একটি ফাংশন(x1,,xn)XiX1,,XnΘΠ(x1,,xn)

Lx1,,xn:ΠR
Lx1,,xn(θ)=i=1nfXiΘ(xiθ).
Lx1,,xnθ । এই "আপনার ডেটা থাকার পরে" পরিস্থিতিটিতে, রয়েছে, আমরা যে বিশেষ শর্তাধীন মডেলটি বিবেচনা করছি তার জন্য, প্যারামিটার সম্পর্কে সমস্ত তথ্য এই নির্দিষ্ট নমুনায় থাকা । প্রকৃতপক্ষে, এটি ঘটে যে জন্য যথেষ্ট পরিসংখ্যান ।Lx1,,xnΘ(x1,,xn)Lx1,,xnΘ

আপনার প্রশ্নের উত্তর দেওয়া, শর্তসাপেক্ষ ঘনত্ব এবং সম্ভাবনার ধারণার মধ্যে পার্থক্য বুঝতে, তাদের গাণিতিক সংজ্ঞাগুলি (যা স্পষ্টভাবে পৃথক: তারা বিভিন্ন গাণিতিক বস্তু, বিভিন্ন বৈশিষ্ট্য সহ) মনে রাখবেন, এবং এটিও মনে রাখবেন যে শর্তাধীন ঘনত্ব একটি "প্রাক -সাম্পল "অবজেক্ট / ধারণা, যখন সম্ভাবনাটি" পরে নমুনা "এক। আমি আশা করি যে এই সমস্ত কিছু আপনাকে উত্তর দেওয়ার ক্ষেত্রেও সহায়তা করবে কেন বায়েশিয়ান অনুমিতি (এটি প্রয়োগ করার পদ্ধতিটি যা আমি আদর্শ বলে মনে করি না) "সম্ভাবনা ফাংশনটি ব্যবহার করে শর্তাধীন বিতরণ নয়" করা হয়েছে: বায়েশিয়ান অনুমানের লক্ষ্যটি হ'ল উত্তরোত্তর বিতরণ গণনা করা, এবং এটি করার জন্য আমরা পর্যবেক্ষণ (পরিচিত) ডেটাতে শর্ত করি ।


আমি মনে করি জেন ​​যখন ঠিক বলেছেন যে সম্ভাবনা এবং শর্তাধীন সম্ভাবনা আলাদা। সম্ভাবনা ফাংশনে θ কোনও এলোমেলো পরিবর্তনশীল নয়, সুতরাং এটি শর্তাধীন সম্ভাবনার চেয়ে পৃথক।
মার্টিন

2

আনুষাঙ্গিকতা বিশ্লেষণকে সহজ করার জন্য ব্যবহৃত হয়

বায়েসীয় বিশ্লেষণ সাধারণত বায়েসের উপপাদ্যের একটি এমনকি সরল বিবৃতি দিয়ে করা হয়, যেখানে আমরা কেবলমাত্র আগ্রহের প্যারামিটারের সাথে সম্মততার ক্ষেত্রে কাজ করি। নমুনা ঘনত্ব সহ একটি আদর্শ IID মডেলের জন্য আমরা এটিকে প্রকাশ করতে পারি:f(X|θ)

p(θ|x)Lx(θ)p(θ)Lx(θ)i=1nf(xi|θ).

বায়সিয়ান আপডেট করার এই বিবৃতিটি প্যারামিটার- সম্মানের সাথে আনুপাতিকতার ক্ষেত্রে কাজ করে । এটি দুটি সমানুপাতিক সরলকরণ ব্যবহার করে: একটি সম্ভাবনা ফাংশন (নমুনা ঘনত্বের সমানুপাতিক) এর ব্যবহারে এবং একটি উত্তরোত্তর (সম্ভাবনার পূর্বে এবং পূর্বেকারের পণ্য সমানুপাতিক)। যেহেতু উত্তরকেন্দ্রটি একটি ঘনত্বের ক্রিয়া (ক্রমাগত ক্ষেত্রে), তাই নিয়মটি তারপরে একটি বৈধ ঘনত্ব উত্পন্ন করার জন্য প্রয়োজনীয় গুণক ধ্রুবককে সেট করে (যেমন, এটি একের সাথে সংহত করার জন্য)।θ

অনুপাতের এই পদ্ধতিটির ব্যবহারের ফলে প্যারামিটার নির্ভর করে না এমন ফাংশনগুলির কোনও গুণক উপাদানগুলিকে উপেক্ষা করার অনুমতি দেওয়ার সুবিধা রয়েছে । এটি আমাদের গণিতের অপ্রয়োজনীয় অংশগুলি সরিয়ে ফেলতে, এবং আপডেটিং পদ্ধতির সহজ বক্তব্যগুলি পেয়ে সমস্যাটিকে সহজতর করে। এটি গাণিতিক প্রয়োজনীয়তা নয় (যেহেতু বয়েসের নিয়মটি তার আন-আনুপাতিক আকারে কাজ করে) তবে এটি আমাদের ক্ষুদ্র প্রাণীর মস্তিষ্কের জন্য বিষয়গুলিকে আরও সহজ করে তোলে ।θ

একটি প্রয়োগকৃত উদাহরণ: পর্যবেক্ষণ করা ডেটা সহ একটি আইআইডি মডেল বিবেচনা করুন । আমাদের বিশ্লেষণের সুবিধার্থে আমরা পরিসংখ্যানগুলি নির্ধারণ করি এবং , যা প্রথম দুটি নমুনা মুহুর্ত। এই মডেলের জন্য আমাদের স্যাম্পলিং ঘনত্ব রয়েছে:X1,...,XnIID N(θ,1)x¯=1ni=1nxix¯¯=1ni=1nxi2

f(x|θ)=i=1nf(xi|θ)=i=1nN(xi|θ,1)=i=1n12πexp(12(xiθ)2)=(2π)n/2exp(12i=1n(xiθ)2).=(2π)n/2exp(n2(θ22x¯θ+x¯¯))=(2π)n/2exp(nx¯¯2)exp(n2(θ22x¯θ))

এখন, আমরা চাইলে এই স্যাম্পলিং ঘনত্বের সাথে সরাসরি কাজ করতে পারি। তবে লক্ষ্য করুন যে এই ঘনত্বের প্রথম দুটি পদটি হ'ল গুণগত ধ্রুবক যা উপর নির্ভর করে না । এই শর্তাদি ট্র্যাক করে রাখা বিরক্তিকর, সুতরাং আসুন আমরা সেগুলি থেকে মুক্তি পাই, তাই আমাদের সম্ভাবনা কার্যকারিতা রয়েছে:θ

Lx(θ)=exp(n2(θ22x¯θ)).

এটি জিনিসগুলিকে কিছুটা সহজতর করে, যেহেতু আমাদের অতিরিক্ত শর্তের ট্র্যাক রাখতে হবে না। এখন, আমরা অবিচ্ছেদ্য ডিনোমিনেটর সহ পুরো সমীকরণ-সংস্করণ ব্যবহার করে বায়েসের নিয়ম প্রয়োগ করতে পারি। তবে আবার এটির জন্য আমাদের আরও একটি বিরক্তিকর গুণক ধ্রুবক ট্র্যাক করা দরকার যা নির্ভর করে না (আরও বিরক্তিকর কারণ এটি পাওয়ার জন্য আমাদের একটি অবিচ্ছেদ্য সমাধান করতে হবে)। সুতরাং আসুন কেবল তার আনুপাতিক আকারে বায়েসের বিধি প্রয়োগ করি। পূর্ববর্তী করে কিছু পরিচিত নির্ভুলতা প্যারামিটার আমরা নিম্নলিখিত ফলাফলটি পেয়েছি ( বর্গাকার সম্পূর্ণ করে ):θθN(0,λ0)λ0>0

p(θ|x)Lx(θ)p(θ)=exp(n2(θ22x¯θ))N(θ|0,λ0)exp(n2(θ22x¯θ))exp(λ02θ2)=exp(12(nθ22nx¯θ+λ0θ2))=exp(12((n+λ0)θ22nx¯θ))=exp(n+λ02(θ22nx¯n+λ0θ))exp(n+λ02(θnn+λ0x¯)2)N(θ|nn+λ0x¯,n+λ0).

সুতরাং, এই কাজ থেকে আমরা দেখতে পারি যে উত্তরোত্তর বিতরণ একটি সাধারণ ঘনত্বের সমানুপাতিক। যেহেতু অবর আবশ্যক হতে একটি ঘনত্ব, এই যে বোঝা অবর হয় স্বাভাবিক ঘনত্ব:

p(θ|x)=N(θ|nn+λ0x¯,n+λ0).

সুতরাং, আমরা দেখতে পাই যে একটি প্যাসিরিওরি প্যারামিটার সাধারণত পোস্টেরিয়র গড় এবং বৈচিত্র দিয়ে দেওয়া হয়:θ

E(θ|x)=nn+λ0x¯V(θ|x)=1n+λ0.

এখন, আমরা যে উত্তরোত্তর বিতরণটি অর্জন করেছি তার সামনের অংশটি অবিচ্ছিন্নভাবে সংহত করা হয়েছে (যা আমরা সাধারণ বন্টনের ফর্মটি সন্ধান করে সহজেই খুঁজে পেতে পারি )। তবে লক্ষ্য করুন যে আমাদের এই গুণক ধ্রুবক সম্পর্কে চিন্তা করতে হবে না - যখনই এই গণিতের সরলকরণ ঘটে তখন আমাদের সমস্ত কাজ মুছে ফেলা (বা আনা হয়) গুণিত ধ্রুবক। একই গুণটি গুণক ধ্রুবকগুলি ট্র্যাক করে রাখার সময় নেওয়া যেতে পারে তবে এটি অনেকটা মেসওয়্যার।


0

আমি মনে করি জেনের উত্তর সত্যিই আপনাকে জানায় যে সম্ভাবনা কার্যকারিতা এবং এলোমেলো ভেরিয়েবলের মানগুলির যৌথ ঘনত্ব কতটা পৃথক। এখনও গাণিতিকভাবে x s এবং both উভয়ের ফাংশন হিসাবে θ এগুলি একই এবং সেই দিক থেকে সম্ভাবনাটিকে সম্ভাবনার ঘনত্ব হিসাবে দেখা যেতে পারে। বেয়েস উত্তরোত্তর বিতরণের সূত্রে আপনি যে পার্থক্যের দিকে লক্ষ্য করছেন তা হ'ল একটি তাত্পর্যপূর্ণ পার্থক্য। তবে পার্থক্যের সূক্ষ্মতা জেনের উত্তরে সুন্দরভাবে ব্যাখ্যা করা হয়েছে।i

সম্ভাব্যতা কার্যকারিতা সম্পর্কিত এই সাইটে আলোচিত অন্যান্য প্রশ্নের মধ্যে এই বিষয়টি উঠে এসেছে। কেজেটিল এবং দিলীপের অন্যান্য মন্তব্যগুলি আমি যা বলছি তা সমর্থন করে বলে মনে হচ্ছে।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.