একটি মুদ্রা উল্টাতে বিটা বিতরণ


12

ক্রুশকের বায়েশিয়ান বইটি বলে, একটি মুদ্রা উল্টানোর জন্য বিটা বিতরণের ব্যবহার সম্পর্কিত,

উদাহরণস্বরূপ, মুদ্রার একটি মাথা এবং একটি লেজ পাশ রয়েছে এমন জ্ঞান ছাড়া যদি আমাদের পূর্বের জ্ঞান না থাকে তবে এটি আগে একটি মাথা এবং একটি লেজ পর্যবেক্ষণ করার সমানুপাতিক, যা = 1 এবং খ = 1 এর সাথে মিল রয়েছে।

কেন কোনও তথ্যই একটি মাথা এবং একটি লেজ - 0 মাথা এবং 0 টি লেজ দেখলে আমার কাছে স্বাভাবিক মনে হয় না।


9
(+1) উদ্ধৃতিটি বিভ্রান্তিমূলক কারণ এটি পাঠককে "পর্যবেক্ষণ" এর দুটি ভিন্ন ভিন্ন ইন্দ্রিয়ের সমতুল্য হতে আমন্ত্রণ জানায়। এখানে ব্যবহৃত অর্থে থাকার যে পরিদর্শন প্রভাব, এটা মানে আপনি পরীক্ষামূলক সেটআপ বুঝতে - মুদ্রা নিজেই। তবে উপসংহার যা এটি বোঝায় যে উপর নির্ভর করে "অবলোকন" পুনরায় ব্যাখ্যার উপর পৃথক পৃথক অর্থে পরীক্ষা চালানোর সময় দুটি ফলাফল ছিল যার ফলস্বরূপ একটি ফলাফল প্রধান এবং অন্য লেজ ছিল। এই ধরণের লজিক্যাল শ্লাইট অফ হ্যান্ডেল একটি বৌদ্ধিক কপ-আউট; এটি কেবল বায়েশিয়ান পদ্ধতিগুলিকে স্বেচ্ছাসেবী এবং যৌক্তিকভাবে পিচ্ছিল হিসাবে দেখা দেয়, এটি একটি দুঃখের বিষয়। a=b=1
শুক্র

উদ্ধৃতিটি ভুল: বিটা (1, 1) এর পূর্বের কোনও যৌক্তিকতা নেই।
নিল জি

যে কেউ সহজেই তর্ক করতে পারে যে এটি একক পর্যবেক্ষণের মূল্যবান তথ্য - অর্ধেক মাথা / অর্ধেক লেজ।
গ্লেন_বি -রিনস্টেট মনিকা

4
দয়া করে বইটিতে এই উত্তরণটির উদ্দেশ্যিত উদ্দেশ্যটি মনে রাখবেন। এটি প্রয়োগ করা ব্যবহারকারীদের শুরু করার জন্য একটি সহজ স্বজ্ঞাত ন্যায়সঙ্গত বলে মনে করা হয় , সম্ভবত কোনও গাণিতিক যুক্তি নয় এবং অবশ্যই দাবি নেই যে বিটা (1,1) সেরা বা একমাত্র অস্পষ্ট আগে prior বইয়ের অন্য কোথাও আমি বেদনা নিয়েছি তা দেখানোর জন্য যে অস্পষ্ট বয়োজ্যেষ্ঠদের মধ্যে সামান্যতম পার্থক্য উত্তরোত্তর কোনও সামান্য পরিমাণে ডেটা উপস্থিতি থাকলে উত্তরোত্তর কোনও উল্লেখযোগ্য পার্থক্য রাখে না। (বায়েস ফ্যাক্টর বাদে অবশ্যই, যা পূর্বের প্রতি অত্যন্ত সংবেদনশীল!) অন্যান্য লেখায় আমি হালদানে আগে আলোচনা করেছি।
জন কে। কুরস্কেকে

উত্তর:


17

উদ্ধৃতিটি হ'ল "লজিকাল স্লাইট অফ অফ হ্যান্ড" (দুর্দান্ত অভিব্যক্তি!), যেমনটি ওপিকে দেওয়া মন্তব্যে @ হুবার লিখেছেন। মুদ্রার একটি মাথা এবং একটি পুচ্ছ রয়েছে তা দেখার পরে আমরা কেবল সত্যই বলতে পারি, তা হ'ল "মাথা" এবং "লেজ" উভয়ই অসম্ভব নয়। সুতরাং আমরা একটি বিচ্ছিন্ন পূর্বে বাতিল করতে পারি যা সম্ভাব্যতার সমস্ত ভর "মাথা" বা "লেজ" এর উপরে রাখে। তবে এটি নিজে থেকেই ইউনিফর্মের আগে নিয়ে যায় না: প্রশ্নটি আরও সূক্ষ্ম। আসুন প্রথমে কিছুটা পটভূমির সংক্ষিপ্তসার করি। আমরা সম্ভাবনা Bayesian অনুমান জন্য বিটা-দ্বিনাম অনুবন্ধী মডেল বিবেচনাধীন একটি মুদ্রা প্রধানগণ দেওয়া স্বাধীন ও অভিন্নরুপে বিতরণ (শর্তসাপেক্ষে উপর মুদ্রা tosses)।θnθp(θ|x)যখন আমরা পালন মধ্যে মাথা tosses:xn

p(θ|x)=Beta(x+α,nx+β)

আমরা বলতে পারি যে এবং একটি "পূর্বের সংখ্যক মাথার" এবং "পূর্বের সংখ্যাগুলির পূর্ব সংখ্যা" (সিউডোট্রিয়াল) এর ভূমিকা পালন করে এবং একটি কার্যকর নমুনার আকার হিসাবে ব্যাখ্যা করা যেতে পারে। আমরা পূর্বে গড় একটি ভরযুক্ত গড় হিসাবে অবর গড় জন্য সুপরিচিত অভিব্যক্তি ব্যবহার করে এই ব্যাখ্যা উতরান পারে এবং নমুনা গড় ।αβα+βαα+βxn

দিকে তাকালে আমরা দুটি বিবেচনা করতে পারি:p(θ|x)

  1. যেহেতু (সর্বাধিক অজ্ঞতা) সম্পর্কে আমাদের কোনও পূর্ব জ্ঞান নেই , তাই আমরা স্বজ্ঞাতভাবে কার্যকর নমুনার আকার "ছোট" হওয়ার আশা করি। যদি এটি বড় হয়, তবে পূর্ববর্তীরা যথেষ্ট পরিমাণে জ্ঞানকে অন্তর্ভুক্ত করবে। এটি দেখার আরেকটি উপায় লক্ষণীয় যে এবং যদি এবং সাথে "ছোট" হয় তবে উত্তরোত্তর সম্ভাবনাগুলি আমাদের পূর্বের উপর অনেক বেশি নির্ভর করে না, কারণ এবং । আমরা প্রত্যাশা করব যে পূর্ববর্তী যা প্রচুর জ্ঞানকে অন্তর্ভুক্ত করে না তা অবশ্যই কিছু তথ্যের আলোকে অপ্রাসঙ্গিক হয়ে উঠতে হবে।θα+βαβxnxx+αxnx+βnx
  2. এছাড়াও, যেহেতু পূর্বে গড়, এবং আমরা বিতরণের সম্পর্কে কোন পূর্বে জ্ঞান আছে , আমরা আশা । এটি প্রতিসামতার যুক্তি - যদি আমরা আরও ভালভাবে না জানি, আমরা প্রাইরি আশা করবো না যে বিতরণটি 0 বা 1 এর দিকে প্রসারিত হয়েছে The বিটা বিতরণটি হ'লμprior=αα+βθμprior=0.5

    f(θ|α,β)=Γ(α+β)Γ(α)+Γ(β)θα1(1θ)β1

    এই এক্সপ্রেশনটি যদি হয় তবে কেবল প্রতিসাম্য ।θ=0.5α=β

এই দুটি কারণে, পূর্বে যাই হোক না কেন (বিটা পরিবারের অন্তর্ভুক্ত - মনে রাখবেন, কনজুগেট মডেল!) আমরা ব্যবহার করতে বেছে নিই, আমরা স্বজ্ঞাতভাবে আশা করি যে এবং "ছোট"। আমরা দেখতে পাচ্ছি যে বিটা-বাইনোমিয়াল মডেলের তিনটি সাধারণভাবে ব্যবহৃত অ-তথ্যমূলক প্রিরিয়ারগুলি এই বৈশিষ্ট্যগুলি ভাগ করে, তবে এগুলি বাদে, তারা একেবারেই আলাদা। এবং এটি সুস্পষ্ট: কোনও পূর্ব জ্ঞান, বা "সর্বোচ্চ অজ্ঞতা" কোনও বৈজ্ঞানিক সংজ্ঞা নয়, তাই কী ধরণের প্রাক্কলন "সর্বাধিক অজ্ঞতা" প্রকাশ করে, অর্থাত্ কোন অ-তথ্যমূলক পূর্ব কী, আপনি "সর্বাধিক" বলতে আসলে যা বোঝায় তার উপর নির্ভর করে অজ্ঞতা "।α=β=cc

  1. আমরা এমন একটি পূর্বনির্ধারণ বেছে নিতে পারি যা বলে যে জন্য সমস্ত মানগুলি উপযোগী , কারণ আমরা এর চেয়ে ভাল আরও জানি না। আবার, একটি প্রতিসম যুক্তি। এটি :θα=β=1

    f(θ|1,1)=Γ(2)2Γ(1)θ0(1θ)0=1

    for এর জন্য , অর্থাত্ ক্রুশকে আগে ব্যবহৃত ইউনিফর্ম। আরও আনুষ্ঠানিকভাবে, বিটা বিতরণের ডিফারেন্সিয়াল এনট্রপির জন্য অভিব্যক্তি লিখে, আপনি দেখতে পাবেন যে এটি সর্বোচ্চ হয় যখন । এখন, এন্ট্রপিকে প্রায়শই একটি বিতরণ দ্বারা পরিচালিত "তথ্যের পরিমাণ" এর একটি পরিমাপ হিসাবে ব্যাখ্যা করা হয়: উচ্চতর এনট্রপি কম তথ্যের সাথে মিলে যায়। সুতরাং, আপনি এই সর্বোচ্চ এনট্রপি নীতিটি ব্যবহার করে বলতে পারেন যে, বিটা পরিবারের অভ্যন্তরে, পূর্বের মধ্যে কম তথ্য রয়েছে (সর্বাধিক অজ্ঞতা) এই ইউনিফর্মের পূর্ব।θ[0,1]α=β=1

  2. আপনি অপর দৃষ্টিকোণটি বেছে নিতে পারেন, এটি ওপি ব্যবহার করেছেন এবং বলতে পারেন যে কোনও তথ্যই মাথা ও লেজ না দেখায়, অর্থাৎ,

    α=β=0π(θ)θ1(1θ)1

    আমরা এইভাবে যে অগ্রগতি লাভ করি তাকে হালদেনের পূর্ব বলা হয় । The কিছুটা সমস্যা আছে - অবিচ্ছেদ্য অসীম, অর্থাত্ স্বাভাবিককরণের ধ্রুবত নির্বিশেষে যাই হোক না কেন, এটি হতে পারে না একটি উপযুক্ত পিডিএফ রূপান্তরিত। প্রকৃতপক্ষে, হালদেন পূর্বটি একটি যথাযথ পিএমএফ , যা সম্ভাব্যতা 0.5 , ০.০ তে 0.5 এবং জন্য অন্যান্য সমস্ত মানগুলিতে 0 সম্ভাব্যতা রাখে । তবে, চলুন চলুন না - একটানা প্যারামিটারের জন্য , সঠিক পিডিএফের সাথে মিলে না এমন প্রিয়ারদের বলা হয় অনুচিত প্রিয়ারθ1(1θ)1I=[0,1]θ=0θ=1θθ। যেহেতু আগেই উল্লেখ করা হয়েছে যে, বয়েসীয় অনুমানের জন্য গুরুত্বপূর্ণ বিষয়গুলি উত্তরোত্তর বিতরণ, অনুপযুক্ত প্রিরিয়াররা যতক্ষণ না উত্তরাধিকার বন্টন যথাযথ হয় ততক্ষণ গ্রহণযোগ্য। হালদানে পূর্বের ক্ষেত্রে, আমরা প্রমাণ করতে পারি যে যদি আমাদের নমুনায় কমপক্ষে একটি সাফল্য এবং একটি ব্যর্থতা থাকে তবে পরবর্তী পিডিএফ যথাযথ। আমরা কমপক্ষে একটি মাথা এবং একটি লেজ পর্যবেক্ষণ করা হয় সুতরাং আমরা কেবল হালদেন আগে ব্যবহার করতে পারেন।

    আরেকটি অনুভূতি রয়েছে যার মধ্যে হালদানে পূর্বেরটিকে অ-তথ্যমূলক হিসাবে বিবেচনা করা যেতে পারে: উত্তরোত্তর বিতরণের গড় এখন , অর্থাত্, মাথাগুলির নমুনা ফ্রিকোয়েন্সি, যা মুদ্রা ফ্লিপ সমস্যার দ্বি বিন্যাসের মডেলটির জন্য এর ঘন ঘন MLE অনুমান । এছাড়াও, জন্য বিশ্বাসযোগ্য অন্তরগুলি ওয়াল্ড আত্মবিশ্বাসের অন্তরগুলির সাথে মিলে যায়। যেহেতু ঘনঘনবাদী পদ্ধতিগুলি পূর্বের নির্দিষ্ট করে না, তাই কেউ বলতে পারে যে হালদানে পূর্বেরটি অ-তথ্যমূলক বা শূন্য পূর্বের জ্ঞানের সাথে মিল রয়েছে কারণ এটি ঘন ঘনবাদী দ্বারা "একই" অনুভূতি তৈরি করে।α+xα+β+n=xnθθ

  3. অবশেষে, আপনি এমন একটি পূর্বরূপ ব্যবহার করতে পারেন যা সমস্যার প্যারামিট্রাইজেশনের উপর নির্ভর করে না, অর্থাত্ জেফরিস আগে, যা বিটা-বাইনোমিয়াল মডেলের সাথে সম্পর্কিত s

    α=β=12π(θ)θ12(1θ)12

    এইভাবে 1 এর কার্যকর নমুনা আকারের সাথে 1. জেফরির পূর্বের সুবিধাটি ছিল যে এটি প্যারামিটার স্পেসটির পুনঃনির্মাণের অধীনে অবিস্মরণীয়। উদাহরণস্বরূপ, অভিন্ন এর সমস্ত মানের সমান সম্ভাব্যতা নির্ধারণ করে, ইভেন্টটির "সম্ভাব্য" সম্ভাবনা। যাইহোক, আপনি এই মডেলটিকে লগ-প্রতিক্রিয়া of এর ক্ষেত্রে head পরিবর্তে প্যারাম্যাট্রাইজ করার সিদ্ধান্ত নিতে পারেন । লগ-প্রতিক্রিয়াগুলির ক্ষেত্রে "সর্বাধিক অজ্ঞতা" প্রকাশ করে এমন পূর্ববর্তীটি কী, যা বলে যে ইভেন্ট "হেড" এর জন্য সমস্ত সম্ভাব্য লগ-প্রতিক্রিয়াগুলি সমৃদ্ধযোগ্য? এটি হ্যালডেনের পূর্ব, যেমন এই (সামান্য ক্রিপ্টিক) উত্তরে দেখানো হয়েছেθλ=log(θ1θ)θ। পরিবর্তে, জেফরিগুলি মেট্রিকের সমস্ত পরিবর্তনের অধীনে আক্রমণাত্মক। জেফরিস বলেছিলেন যে পূর্বের যার কাছে এই সম্পত্তি নেই এটি কোনওভাবে তথ্যবহুল কারণ এটিতে যে সমস্যাটি আপনি প্যারামিট্রাইজ করতে ব্যবহার করেছেন সেই মেট্রিকের তথ্য রয়েছে। তার পূর্বে না।

সংক্ষিপ্তসার হিসাবে, বিটা-বিণোমিয়াল মডেলের আগে একটি অ-তথ্যসূত্রের জন্য কেবল একটি অস্পষ্ট পছন্দ নয়। আপনি যা চয়ন করেন তা নির্ভর করে শূন্য পূর্বের জ্ঞান হিসাবে আপনার অর্থ এবং আপনার বিশ্লেষণের লক্ষ্যগুলির উপর the


0

এটি পরিষ্কারভাবে ভুল। 1 টি মাথা এবং 1 টি লেজ পর্যবেক্ষণ করার অর্থ হল (সর্বস্তরের মুদ্রা পাওয়া অসম্ভব) এবং (একটি সমস্ত-পুচ্ছের মুদ্রা থাকা অসম্ভব)। ইউনিফর্ম বিতরণ এর সাথে সামঞ্জস্যপূর্ণ নয়। যা সামঞ্জস্যপূর্ণ তা হ'ল বিটা (২,২)। বায়েশীয় দ্রবণ থেকে পূর্বে একটি ল্যাপ্লেস (অর্থাত্ ইউনিফর্ম) সহ মুদ্রা-ফ্লিপ সমস্যার পূর্ববর্তী সম্ভাবনাটি হ'ল ।পি ( θ = 1 ) = 0 θ পি ( θ ) = বি টি ( এইচ + 1 , ( এন - এইচ ) + 1 )p(θ=0)=0p(θ=1)=0θp(θ)=Beta(h+1,(Nh)+1)


আপনার উত্তর বুঝতে আমার খুব কষ্ট হয়েছে।
মাইকেল আর চেরনিক

আপনার সমাপ্তি যে "ইউনিফর্ম বিতরণ এটির সাথে সামঞ্জস্যপূর্ণ নয়" ভুল। এটি ঘনত্বকে বিভ্রান্ত করে (যা " " দ্বারা বোঝানো উচিত ) সম্ভাবনার সাথে । (অবিচ্ছিন্ন) অভিন্ন বিতরণ কোনও পরমাণু ইভেন্ট যেমন zero বা শূন্য সম্ভাবনা বরাদ্দ করে । θ = 0 θ = 1pθ=0θ=1
শুক্র
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.