শাস্ত্রীয় পদ্ধতির পরিবর্তে কেউ কেন 'ননফর্মেশনাল' অনুচিতের সাথে বায়সিয়ান পদ্ধতির ব্যবহার করবেন?


44

যদি আগ্রহটি কেবলমাত্র কোনও মডেলের প্যারামিটারগুলি নির্ধারণ করে (পয়েন্টওয়াইস এবং / বা ব্যবধানের প্রাক্কলন) এবং পূর্ববর্তী তথ্য নির্ভরযোগ্য, দুর্বল না হয় (আমি জানি এটি কিছুটা অস্পষ্ট তবে আমি একটি দৃশ্যাবলী প্রতিষ্ঠার চেষ্টা করছি যেখানে একটি পছন্দ পছন্দ করে পূর্ববর্তী কঠিন) ... কেউ কেন শাস্ত্রীয় পদ্ধতির পরিবর্তে 'ননফর্মেশনাল' অনুচিত প্রিয়ারদের সাথে বায়েশিয়ান পদ্ধতির ব্যবহার বেছে নেবেন?


1
বায়েশিয়ান পরিসংখ্যানের এই বিতর্কিত অংশ সম্পর্কে এমন আকর্ষণীয় চিন্তাভাবনার জন্য আপনাকে সবাইকে ধন্যবাদ আমি আপনার পয়েন্টগুলি পড়ছি এবং তুলনা করছি। আনুষ্ঠানিক বিধি, ব্যবহারিকতা এবং ব্যাখ্যার দিক দিয়ে এর ব্যবহারকে বৈধতা দেয় এমন আকর্ষণীয় যুক্তি রয়েছে। আমি কোনও সময়ে একটি উত্তর নির্বাচন করব, তবে আমি আতঙ্কিত এটি একটি খুব কঠিন কাজ হতে চলেছে।

উত্তর:


24

আপনি অত্যধিক অ-তথ্যমূলক প্রিরিয়ার ব্যবহার করলেও কেউ বায়সিয়ান পদ্ধতির সাথে যেতে পারে তার দুটি কারণ:

  • রূপান্তর সমস্যা। কিছু বিতরণ রয়েছে (দ্বি-দ্বি, নেতিবাচক দ্বিপদী এবং জেনারেলাইজড গামা যার সাথে আমি সর্বাধিক পরিচিত) যা কনভার্শনের সময়কে অ-তুচ্ছ পরিমাণে জারি করে। আপনি একটি "বয়েসিয়ান" কাঠামো ব্যবহার করতে পারেন - এবং নির্দিষ্ট মার্কোভ চেইন মন্টি কার্লো (এমসিএমসি) পদ্ধতিগুলি, প্রয়োজনীয়ভাবে গণনা শক্তি সহ এই রূপান্তর ইস্যুগুলিতে লাঙল করতে এবং সেগুলি থেকে শালীন অনুমান পেতে পারেন।
  • ব্যাখ্যা. একটি বয়েসিয়ান অনুমান + 95% বিশ্বাসযোগ্য ব্যবধানে ঘন ঘন বিশ্বাসী + 95% আত্মবিশ্বাসের ব্যবধানের চেয়ে আরও স্বজ্ঞাত ব্যাখ্যা হয়, তাই কেউ কেউ কেবল সেগুলি জানাতে পছন্দ করে।

3
এমসিএমসি আসলে বায়েশিয়ান পদ্ধতি নয়। আপনি যদি সহজেই আপনার টার্গেট সম্ভাবনা থেকে অনুমান আঁকতে পারেন (উত্তরোত্তর নয়) তবে যদি রূপান্তরটি সমস্যা হয়।
স্কটিয়াজ

16

যদিও ফলাফলগুলি খুব একই রকম হতে চলেছে, তাদের ব্যাখ্যাগুলি পৃথক।

আত্মবিশ্বাসের ব্যবধানগুলি বোঝায় যে পরীক্ষাটি বহুবার পুনরাবৃত্তি করা এবং 95% বার সত্য পরামিতিটি ধারণ করতে সক্ষম হওয়া। তবে আপনি এটি বলতে পারবেন না যে এটি ক্যাপচার করার 95% সুযোগ রয়েছে।

অন্যদিকে বিশ্বাসযোগ্য ব্যবধান (বায়েসিয়ান) আপনাকে বলতে দেয় যে 95% "চান্স" রয়েছে যা ব্যবধানটি সত্যিকারের মানটি ধারণ করে। আপডেট: এটি উপস্থাপনের আরও বায়েশিয়ান উপায় হ'ল আপনি আপনার ফলাফল সম্পর্কে 95% আত্মবিশ্বাসী হতে পারেন।

P(Data|Hypothesis)P(Hypothesis|Data)


1
আমি এখানে বিভ্রান্ত হতে পারি, তবে কীভাবে "আসল মান" কোনও বয়েশিয়ান কাঠামোর সাথে খাপ খায়? হতে পারে আপনি উত্তরোত্তর মোডের উল্লেখ করছেন (বা গড়, বা .. ইত্যাদি)?
ম্যাক্রো

আমি নমুনা পরিসংখ্যানগুলির সাথে আপনি যে পরামিতি (জনসংখ্যার মান) অনুমান করছেন তা উল্লেখ করছি, এটি একটি গড়, গড় পার্থক্য, একটি রিগ্রেশন opeাল ... সংক্ষেপে আপনি কী পরে আছেন।
ডমিনিক কম্টোইস

1
হ্যাঁ, তবে "সত্য মান" ইঙ্গিত দেয় না যে প্যারামিটারটি একটি ধ্রুবক (যেমন এর বিতরণটি একটি পয়েন্ট ভর)? উত্তরোত্তর বিতরণটি দেখার সম্পূর্ণ ধারণাটি সেইভাবে পরামিতিগুলির চিন্তাভাবনার সাথে একমত নয়।
ম্যাক্রো

9

±2σ

প্যারামিটারগুলির পুরো উত্তরোত্তর বিতরণ সরবরাহ করা বায়সীয় পদ্ধতির একটি ক্লাসিকাল পদ্ধতির সুবিধা, যা সাধারণত সম্ভাবনা ফাংশনের মোড দ্বারা প্রতিনিধিত্ব করা পরামিতিগুলির কেবলমাত্র একটি বিন্দু অনুমান সরবরাহ করে এবং অ্যাসিপোটোটিক স্বাভাবিকতা অনুমান এবং একটি চতুর্ভুজ সমীকরণ ব্যবহার করে অনিশ্চয়তা বর্ণনা করার জন্য লগ-সম্ভাবনা ফাংশন। বায়েসিয়ান কাঠামোর সাথে, অনিশ্চয়তাগুলি মূল্যায়নের জন্য কারও কোনও অনুমান ব্যবহার করতে হবে না কারণ পরামিতিগুলির পুরো উত্তরোত্তর বিতরণ উপলব্ধ। তদুপরি, একটি বায়েশীয় বিশ্লেষণ শাস্ত্রীয় পরিসংখ্যানগুলিতে আত্মবিশ্বাসের অন্তর্ভুক্তির ধারণার চেয়ে আরও সহজে ব্যাখ্যা করা পরামিতিগুলির বা পরামিতিগুলির কোনও ক্রিয়াকলাপের জন্য বিশ্বাসযোগ্য অন্তরগুলি সরবরাহ করতে পারে (কংগডন, 2001)।

সুতরাং, উদাহরণস্বরূপ, আপনি দুটি পরামিতিগুলির মধ্যে পার্থক্যের জন্য বিশ্বাসযোগ্য ব্যবধানগুলি গণনা করতে পারেন।


6

স্যার হ্যারল্ড জেফরি বায়েসিয়ান পদ্ধতির দৃ strong় সমর্থক ছিলেন। তিনি দেখিয়েছেন যে আপনি যদি ছড়িয়ে পড়া ভুল অনুচিত প্রিয়ার ব্যবহার করেন তবে ফলস্বরূপ বায়েশিয়ান অনুমাননটি ঘন ঘনবাদী আনফেরেন্সিয়াল পদ্ধতির সমান হবে (অর্থাৎ, বায়সিয়ান বিশ্বাসযোগ্য অঞ্চলগুলি ঘন ঘন আস্থাভাজন অন্তর্ভুক্ত হিসাবে একই)। বেশিরভাগ বায়েশিয়ানরা সঠিক তথ্যবহুল প্রিভিয়ারদের পক্ষে ছিলেন। অনুচিত প্রিয়ারদের নিয়ে সমস্যা রয়েছে এবং কেউ কেউ যুক্তি দিতে পারে যে কোনও পূর্ববর্তী সত্যই অ-তথ্যমূলক নয়। আমি মনে করি যে বায়েশিয়ানরা এই জেফরির পূর্বে ব্যবহার করে তারা এটি জেফরির অনুগামী হিসাবে করে। ডেনিস লিন্ডলি , বায়েসিয়ান পদ্ধতির অন্যতম প্রবক্তা, জেফরির প্রতি প্রচুর শ্রদ্ধা থাকলেও তথ্যবহুল প্রেরকদের পক্ষে ছিলেন।


1
আপনার উত্তরের প্রথম কয়েকটি লাইনের জন্য +1। আমার মতে, কোনও "অ-তথ্যবহুল" এর আগে কোনও জেফরি বেছে নেওয়ার কারণটি কেবল জেফরির অনুগামী হিসাবে নয়। এর কারণ এটি সত্যিকার অর্থে কোনও অনুমান করার মতো নয় যেখানে তথাকথিত অ-তথ্যবহুল পূর্বে প্যারামিট্রাইজেশন সম্পর্কে ধারণা তৈরি করা হচ্ছে।
নিল জি

1
@ নীলজি আমি কিছু লোককেও খুঁজে পেয়েছি যেমন নন-ইনফরমেশনাল প্রিরিয়ার ব্যবহার করার সময় তাদের "বেসামাল ব্যর্থ" (ব্যর্থ নিরাপদ হিসাবে একই অর্থে) ব্যর্থ করার জন্য যেমন একটি নিরীহ পাঠক দ্বারা তাদের ব্যাখ্যা করা যায়।
ফোমাইট

@ এপিগ্রাড: আপনার অর্থ কী? (আমি দুঃখিত, ঘন ঘন পরিসংখ্যান সম্পর্কে আমার বোঝাপড়া খুব খারাপ poor)
নীল জি

1
@ নীলজি মূলত জেফরির পূর্বে আপনাকে ঘন ঘন ক্ষেত্রের প্রশিক্ষণপ্রাপ্ত কেউ কী দেখার প্রত্যাশা করছেন তা আপনাকে দেবে বলে অপরিহার্যভাবে কাজে লাগানো। স্থাপন করা বায়েশিয়ান পদ্ধতিতে কাজ করার সময় এটি খুব ভাল মাঝারি স্থল।
ফোমাইট

@ নীলজি আমি এটাও ভুলে গেছি, আমার উত্তরে যেমন আপনি যদি এমসিএমসি ব্যবহার করে একটি ঘন ঘনবাদী বিশ্লেষণ পরিচালনা করেন , কেন্দ্রীকরণের বিষয়গুলি ঘুরে দেখেন তবে জেফ্রির পূর্ববর্তীটিও সহায়ক।
ফোমেট

6

বায়েশিয়ান পদ্ধতির ব্যবহারিক সুবিধা রয়েছে। এটি প্রায়শই বাধ্যতামূলক হয়ে অনুমানের সাথে সহায়তা করে। এবং এটি উপন্যাসের মডেল পরিবারগুলিকে সক্ষম করে এবং আরও জটিল (শ্রেণিবদ্ধ, বহুস্তর) মডেলগুলি তৈরিতে সহায়তা করে।

উদাহরণস্বরূপ, মিশ্র মডেলগুলির সাথে (ভেরিয়েন্স প্যারামিটারগুলির সাথে এলোমেলো প্রভাব সহ) আরও ভাল অনুমান হয় যদি ভেরিয়েন্স পরামিতিগুলি নিম্ন-স্তরের প্যারামিটারের সাথে প্রান্তিককরণের দ্বারা অনুমান করা হয় (মডেল সহগ; এটি আরইএমএল বলা হয় )। বায়েশিয়ান পদ্ধতিটি প্রাকৃতিকভাবে এটি করে। এই মডেলগুলির সাথে, এমনকি আরএমএল সহ, বৈকল্পিক পরামিতিগুলির সর্বাধিক সম্ভাবনা (এমএল) অনুমানগুলি প্রায়শই শূন্য বা নিম্নমুখী পক্ষপাতী হয়। ভেরিয়েন্স পরামিতিগুলির জন্য একটি যথাযথ পূর্বে সহায়তা করে।

এমনকি পয়েন্ট অনুমান ( এমএপি , সর্বাধিক একটি পোস্টেরিয়েরি) ব্যবহার করা হলেও, প্রবীণরা মডেল পরিবারকে পরিবর্তন করে। কিছুটা কোলাইনারি ভেরিয়েবলের বিশাল সেট সহ লিনিয়ার রিগ্রেশন অস্থির। এল 2 নিয়মিতকরণ প্রতিকার হিসাবে ব্যবহৃত হয়, তবে এটি গাউসিয়ান (অ-তথ্যমূলক) পূর্বে এবং এমএপি অনুমানের সাথে বায়সিয়ান মডেল হিসাবে ব্যাখ্যাযোগ্য। (এল 1 নিয়মিতকরণ আলাদা পূর্বের এবং বিভিন্ন ফলাফল দেয় ually প্রকৃতপক্ষে এখানে পূর্ব কিছুটা তথ্যপূর্ণ হতে পারে তবে এটি প্যারামিটারের সম্মিলিত বৈশিষ্ট্য সম্পর্কে, কোনও একক প্যারামিটার সম্পর্কে নয়))

সুতরাং কিছু সাধারণ এবং অপেক্ষাকৃত সহজ মডেল রয়েছে যেখানে কেবল কাজটি সম্পন্ন করার জন্য একটি বায়সিয়ান পদ্ধতির প্রয়োজন!

মেশিন লার্নিংয়ে ব্যবহৃত সুপ্ত ডিরিচলেট বরাদ্দ (এলডিএ) এর মতো বিষয়গুলি আরও জটিল মডেলের পক্ষে আরও বেশি পক্ষে । এবং কিছু মডেলগুলি সহজাতভাবে বয়েসিয়ান, উদাহরণস্বরূপ, ডিরিচলেট প্রক্রিয়াগুলির উপর ভিত্তি করে ।


6

practicalθ^=θ^(x1,,xn)ΘfXn+1Θ(xn+1θ)fXn+1Θ(xn+1θ^)θ^

fXn+1X1,,Xm(xn+1x1,,xn)=fXn+1Θ(xn+1θ)π(θx1,,xn)dθ.

6
βlog(σ2)

সম্পর্কে কিছু @ সায়ান এর মন্তব্য।

4

এর বেশ কয়েকটি কারণ রয়েছে:

  1. ±SE
  2. বৃহত নমুনা বৈশিষ্ট্যগুলি সাধারণত কিছু সম্পর্কিত ঘনত্বে থাকা পদ্ধতির সাথে সম্পূর্ণ অভিন্ন।
  3. "উদ্দেশ্যমূলক নয়" বলে অভিযুক্ত হওয়ার ভয়ের কারণে আমরা যে পরিমাণ সত্যই জানি না কেন, প্রায়শই কোনও প্রিদ্ধের সাথে একমত হতে যথেষ্ট অনীহা থাকে। অপ্রাতিষ্ঠানিক প্রিয়ারগুলি ("কোনও প্রিয়ার নেই") ব্যবহার করে কেউ এমন ভান করতে পারে যে এরকম কোনও সমস্যা নেই, যা কিছু পর্যালোচকদের সমালোচনা এড়াতে পারে।

এখন কেবল অপ্রয়োজনীয় প্রিয়ার ব্যবহারের ডাউনসাইড হিসাবে, আমার মনে হয় যা সবচেয়ে গুরুত্বপূর্ণ এবং তারপরে বেশ কয়েকটি গুরুত্বপূর্ণ প্রযুক্তিগত দিক নিয়েও যাচ্ছি:

  1. আপনি যা পান তার ব্যাখ্যা হ'ল বেশ সৎভাবে, ঘন ঘনবাদী অনুক্রমের মতোই। আপনি কেবলমাত্র আপনার ঘন ঘন সম্ভাবনাময় সর্বাধিক সম্ভাবনার অনুক্রমটিকে পুনরায় লেবেল করতে পারবেন না এবং দাবি করতে পারেন যে এটি আপনাকে একাধিক তুলনা সম্পর্কে কোনও উদ্বেগ থেকে মুক্তি দেয়, একাধিক ডেটা দেখায় এবং সম্ভাব্যতার পরিপ্রেক্ষিতে আপনাকে সমস্ত বিবৃতি ব্যাখ্যা করতে দেয় যে কিছু অনুমান সত্য. অবশ্যই, টাইপ আই ত্রুটিগুলি এবং ঘন ঘনবাদী ধারণাগুলি রয়েছে তবে বিজ্ঞানী হিসাবে আমাদের উচিত মিথ্যা দাবি করা সম্পর্কে যত্ন নেওয়া এবং আমরা জানি যে উপরের কাজগুলি সমস্যার কারণ হয়ে দাঁড়ায়। এই বিষয়গুলির অনেকগুলি চলে যায় (বা কমপক্ষে কোনও সমস্যা অনেক কম থাকে), যদি আপনি কোনও শ্রেণিবিন্যাসের মডেলগুলিতে এম্বেড করেন / কিছু বুদ্ধিমানের কাজ করেন, তবে এটি সাধারণত আপনার মডেলটিতে পূর্বের জন্য ভিত্তি (এবং এর বিকল্প হিসাবে প্রবীণদের সুস্পষ্টরূপে অন্তর্ভুক্ত করে) বিশ্লেষণ পদ্ধতির মাধ্যমে স্পষ্টতই প্রিয়ারকে উত্সাহিত করে। এই বিবেচনাগুলি ঘন ঘন উপেক্ষা করা হয়, আমার মতে বেশিরভাগই বয়েসিয়ান পি-হ্যাকিং পরিচালনা করার জন্য (অর্থাত্ বহুবৃত্তির পরিচয় দিন, তবে এটিকে উপেক্ষা করুন) একটি অজুহাতের ডুমুর পাতা দিয়ে যে আপনি বায়েসিয়ান পদ্ধতি ব্যবহার করার সময় এটি কোনও সমস্যা নয় (সমস্ত শর্ত বাদ দিয়ে যেগুলি হবে পূরণ করতে হবে)।
  2. আরও "প্রযুক্তিগত" দিক থেকে, অজানা ধারণা প্রেরীরা সমস্যাযুক্ত, কারণ আপনার সঠিক উত্তরোত্তর গ্যারান্টিযুক্ত নয়। অনেকে বায়েশিয়ান মডেলগুলিকে অপ্রত্যাশিত প্রিয়ারস লাগিয়েছেন এবং বুঝতে পারেন নি যে উত্তরোত্তরটি সঠিক নয়। ফলস্বরূপ MCMC নমুনা তৈরি করা হয়েছিল যা মূলত অর্থহীন ছিল।

শেষ পয়েন্টটি বরং অস্পষ্ট (বা কিছুটা দুর্বল-তথ্যযুক্ত) প্রিয়ারদের পছন্দ করার পক্ষে যুক্তি যা সঠিক উত্তরোত্তর নিশ্চিত করে। স্বীকারোক্তিজনকভাবে, এগুলি থেকে কখনও কখনও নমুনা দেওয়া খুব কঠিনও হতে পারে এবং এটি মনে করা খুব কঠিন যে পুরো উত্তরোক্তটি অন্বেষণ করা হয়নি। যাইহোক, অস্পষ্ট (তবে যথাযথ) প্রবীণদের সাথে বয়েসিয়ান পদ্ধতিগুলি ঘন ঘনবাদী দৃষ্টিকোণ থেকে খুব ভাল ছোট নমুনার বৈশিষ্ট্যগুলি দেখানো হয়েছে এবং আপনি অবশ্যই এটি ব্যবহারের পক্ষে যুক্তি হিসাবে দেখতে পাচ্ছেন, অন্যদিকে আরও কিছু ডেটা সহ খুব কমই থাকবে অবিজ্ঞানী প্রিয়ারগুলির সাথে পদ্ধতিগুলির বিপরীতে কোনও পার্থক্য।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.