সম্ভাবনা
সম্ভাব্যতা তত্ত্বের সাধারণ সমস্যাগুলি পর্যালোচনাগুলির সম্ভাব্যতা উল্লেখ করে একটি নির্দিষ্ট মডেল দেওয়া হয়েছে এবং প্যারামিটারগুলি দেওয়া হয়েছে (আসুন তাদের কল করুন ) জড়িত। উদাহরণস্বরূপ কার্ড গেমস বা ডাইস গেমগুলির নির্দিষ্ট পরিস্থিতির সম্ভাবনাগুলি প্রায়শই খুব সোজা থাকে।x1,x2,...,xnθ
তবে, অনেক ব্যবহারিক পরিস্থিতিতে আমরা একটি বিপরীতমুখী পরিস্থিতি ( অনুমানমূলক পরিসংখ্যান ) নিয়ে কাজ করছি। এটি হল: পর্যবেক্ষণ দেওয়া হয়েছে এবং এখন মডেলটি অজানা , বা কমপক্ষে আমরা নির্দিষ্ট পরামিতিগুলি জানি না ।x1,x2,...,xkθ
এই ধরণের সমস্যায় আমরা প্রায়শই এমন একটি উল্লেখ করি যার নাম প্যারামিটারের সম্ভাবনা বলে। , যা একটি নির্দিষ্ট প্যারামিটারে বিশ্বাসের হার প্রদত্ত পর্যবেক্ষণ । এই শব্দটি পর্যবেক্ষণগুলির সম্ভাবনার সমানুপাতিক হিসাবে প্রকাশিত হয়েছে ধরে যে একটি মডেল প্যারামিটার- অনুমানকৃতভাবে সত্য হবে। L(θ)θx1,x2,..xkx1,x2,..xkθL(θ,x1,x2,..xk)∝probability observations x1,x2,..xk given θ
একটি প্রদত্ত প্যারামিটার মানের ক্ষেত্রে আরো সম্ভাব্য একটি নির্দিষ্ট পর্যবেক্ষণ (অন্যান্য পরামিতি মান সম্ভাব্যতা আপেক্ষিক), আরো পর্যবেক্ষণ এই বিশেষ প্যারামিটার সমর্থন (অথবা তত্ত্ব / হাইপোথিসিস যে এই প্যারামিটারটি অনুমান) হল । একটি (আপেক্ষিক) উচ্চ সম্ভাবনা সেই প্যারামিটার মান সম্পর্কে আমাদের বিশ্বাসকে শক্তিশালী করবে (এটি সম্পর্কে আরও অনেক বেশি দার্শনিক রয়েছে )।θx1,x2,..xn
জার্মান ট্যাঙ্ক সমস্যার সম্ভাবনা
এখন জার্মান ট্যাঙ্ক সমস্যার জন্য স্যাম্পলগুলির একটি সম্ভাবনা কার্যকারিতা হ'ল:x1,x2,..xk
L(θ,x1,x2,..xk)=Pr(x1,x2,..xk,θ)={0(θk)−1if max(x1,x2,..xk)>θif max(x1,x2,..xk)≤θ,
আপনি নমুনাগুলি {1, 2, 10 samples বা নমুনাগুলি {8, 9, 10 Whether পর্যবেক্ষণ করেন কিনা তা যখন প্যারামিটার সহ অভিন্ন বন্টন থেকে নমুনাগুলি বিবেচনা করা হয় তখন তা বিবেচ্য নয় । উভয় নমুনা সম্ভাবনার সাথে সমানভাবে সম্ভবত: are করে এবং সম্ভাবনার ধারণাটি ব্যবহার করে একটি নমুনা অন্য নমুনার তুলনায় প্যারামিটার- সম্পর্কে আরও কিছু জানায় না ।θ(θ3)−1θ
8, 9, 10 high উচ্চ মানগুলি আপনাকে ভাবতে / বিশ্বাস করতে পারে বেশি হওয়া উচিত। তবে, এটি কেবলমাত্র 10 ডলারের মান} যা আপনাকে সম্ভাবনা সম্পর্কে সত্যই প্রাসঙ্গিক তথ্য দেয় (মান 10 আপনাকে বলে যে দশ বা তার বেশি হবে, অন্যান্য মান 8 এবং 9 এই তথ্যটিতে কোনও অবদান রাখে না )।θθθ
ফিশার নেইম্যান ফ্যাক্টেরাইজেশন উপপাদ্য
এই উপপাদ্যটি আপনাকে বলে যে একটি নির্দিষ্ট পরিসংখ্যান (অর্থাত্ পর্যবেক্ষণগুলির কিছু ফাংশন যেমন গড়, মধ্যম বা জার্মান ট্যাঙ্ক সমস্যার ক্ষেত্রে সর্বাধিক) যথেষ্ট হয় (সমস্ত তথ্য ধারণ করে) আপনি সম্ভাবনা , অন্যান্য পর্যবেক্ষণগুলির উপর নির্ভর করে এমন পদগুলি , যেমন এই ফ্যাক্টরটি প্যারামিটার এবং উভয়ের উপর নির্ভর করে না (এবং অনুমানের পরামিতি মানগুলির সাথে ডেটা সম্পর্কিত যে সম্ভাবনা ফাংশনের অংশটি কেবল পরিসংখ্যানের উপর নির্ভর করে তবে ডেটা / পর্যবেক্ষণের পুরোটা নয়)।T(x1,x2,…,xk)x1,x2,…,xkθx1,x2,…,xk
জার্মান ট্যাঙ্ক সমস্যার ক্ষেত্রে বিষয়টি সহজ। উপরে আপনি দেখতে পাচ্ছেন যে উপরের সম্ভাবনার সম্পূর্ণ অভিব্যক্তিটি ইতিমধ্যে কেবলমাত্র পরিসংখ্যান এবং বাকী মানের করে না।max(x1,x2,..xk)x1,x2,..xk
উদাহরণ হিসাবে ছোট খেলা
যাক আসুন আমরা বারবার নিম্নলিখিত খেলা খেলতে: নিজেই একটি দৈব চলক এবং সমান সম্ভাবনা থাকে টানা পারেন 100 অথবা 110 তারপর আমরা একটি নমুনা আঁকা ।θx1,x2,...,xk
আমরা পর্যবেক্ষিত উপর ভিত্তি করে অনুমান করার জন্য একটি কৌশল বেছে নিতে চাই যা আমাদের সম্ভাবনা সর্বাধিক করে অনুমান ।θx1,x2,...,xkθ
সঠিক কৌশলটি হ'ল নমুনায় থাকা সংখ্যার মধ্যে একটি> 100 না থাকলে 100 নির্বাচন করা হবে।
আমরা ইতিমধ্যে প্যারামিটার মান 110 বেছে নেওয়ার জন্য প্রলুব্ধ হতে পারি যখন উচ্চ মানের কাছাকাছি থাকে (তবে ঠিক বেশি নয়) তবে এটি ভুল হবে। প্রকৃত প্যারামিটার মান যখন এটি 110 এর চেয়ে 100 হয় তখন এই ধরনের পর্যবেক্ষণের সম্ভাবনা বেশি থাকে So সুতরাং আমরা যদি অনুমান করি, এমন পরিস্থিতিতে প্যারামিটার মান হিসাবে 100 হয় তবে আমরা ভুল করার সম্ভাবনা কম করব (কারণ এই উচ্চ মানের সাথে শততম কাছাকাছি পরিস্থিতি, তবুও এটির নীচে, প্রকৃত মানটি 110 এর ক্ষেত্রে পরিবর্তে প্রকৃত মান 100 হয় এমন ক্ষেত্রে প্রায়শই ঘটে।x1,x2,...,xk