গীবস স্যাম্পলিং অ্যালগরিদম কি বিশদ ভারসাম্যের নিশ্চয়তা দেয়?


17

আমার কাছে সুপ্রিম অথরিটি 1 এ আছে যে গিবস স্যাম্পলিং হ'ল মার্কভ চেইন মন্টি কার্লো স্যাম্পলিংয়ের জন্য মেট্রোপলিস-হেস্টিংস অ্যালগরিদমের একটি বিশেষ মামলা। এমএইচ অ্যালগরিদম সর্বদা বিশদ ব্যালেন্স সম্পত্তি সহ একটি রূপান্তর সম্ভাবনা দেয়; আমি আশা করি গিবসও উচিত। তাহলে নিম্নলিখিত সরল ক্ষেত্রে আমি কোথায় ভুল হয়ে গেছি?

দুটি বিযুক্ত (সরলতার জন্য) ভেরিয়েবলের উপর লক্ষ্য বন্টন π(x,y) জন্য, সম্পূর্ণ শর্তযুক্ত বিতরণগুলি হল:

q1(x;y)=π(x,y)zπ(z,y)q2(y;x)=π(x,y)zπ(x,z)

আমি যেমন গীবস স্যাম্পলিং বুঝতে পারি, রূপান্তরের সম্ভাবনাটি লেখা যায়:

Prob{(y1,y2)(x1,x2)}=q1(x1;y2)q2(x2;x1)

প্রশ্নটি হল, তবে আমি যে নিকটতম পেতে পারি তা হ'ল π ( y 1 , y 2 ) পি আর বি { ( y 1 , y 2 )

π(y1,y2)Prob{(y1,y2)(x1,x2)}=?π(x1,x2)Prob{(x1,x2)(y1,y2)},
এটি মোটামুটি আলাদা, এবং বিশদ ভারসাম্য বোঝায় না। কোন চিন্তা জন্য ধন্যবাদ!
π(y1,y2)Prob{(y1,y2)(x1,x2)}=π(y1,y2)q2(x2;x1)q1(x1;y2)=π(x1,x2)zπ(x1,z)π(x1,y2)zπ(z,y2)π(y1,y2)=π(x1,x2)q2(y2;x1)q1(y1;y2)

উত্তর:


15

আপনি মার্কোভ চেইনের জন্য বিশদ ভারসাম্য দেখানোর চেষ্টা করেছিলেন যা মার্কভ চেইনের একটি রূপান্তরকে 'গীবস সুইপ' হিসাবে বিবেচনা করে প্রাপ্ত হয় যেখানে আপনি শর্তাধীন বিতরণ থেকে প্রতিটি উপাদানকে নমুনা হিসাবে দেখেন। এই চেইনের জন্য, বিশদ ভারসাম্য সন্তুষ্ট নয় is মোদ্দা কথাটি হ'ল শর্তযুক্ত বিতরণ থেকে কোনও নির্দিষ্ট উপাদানগুলির প্রতিটি নমুনা হ'ল এমন একটি রূপান্তর যা বিশদ ভারসাম্যকে সন্তুষ্ট করে। এটি বলা আরও সঠিক হবে যে গিবস স্যাম্পলিং হ'ল কিছুটা সাধারণীকৃত মেট্রোপলিস-হেস্টিংসের একটি বিশেষ ক্ষেত্রে, যেখানে আপনি একাধিক বিভিন্ন প্রস্তাবের মধ্যে বিকল্প হন। আরও বিশদ অনুসরণ করুন।

ঝাড়ুগুলি বিশদ ভারসাম্য পূরণ করে না

এক্স1,এক্স2

এক্স2=0এক্স2=1এক্স1=01313এক্স1=1013
ধরুন গিবস সুইপটি যাতে অর্ডার করা হয়েছে এক্স1প্রথম নমুনা দেওয়া হয়। রাষ্ট্র থেকে সরানো(0,0) রাষ্ট্র (1,1) একটি পদক্ষেপে অসম্ভব, যেহেতু এটি থেকে যাওয়া প্রয়োজন (0,0) প্রতি (1,0)। তবে, থেকে সরানো(1,1) প্রতি (0,0) যথা - এর ইতিবাচক সম্ভাবনা রয়েছে 14। সুতরাং আমরা উপসংহারে পৌঁছেছি যে বিশদ ভারসাম্য সন্তুষ্ট নয়।

তবে এই শৃঙ্খলে এখনও একটি স্থিতিশীল বিতরণ রয়েছে যা সঠিক one টার্গেট বিতরণে রূপান্তর করার জন্য বিশদ ভারসাম্য যথেষ্ট, তবে প্রয়োজনীয় নয় condition

উপাদান-ভিত্তিক পদক্ষেপগুলি বিশদ ভারসাম্য পূরণ করে

Consider a two-variate state where we sample the first variable from its conditional distribution. A move between (x1,x2) and (y1,y2) has zero probability in both directions if x2y2 and thus for these cases detailed balance clearly holds. Next, consider x2=y2:

π(x1,x2)Prob((x1,x2)(y1,x2))=π(x1,x2)p(y1X2=x2)=π(x1,x2)π(y1,x2)zπ(z,x2)=π(y1,x2)π(x1,x2)zπ(z,x2)=π(y1,x2)p(x1X2=x2)=π(y1,x2)Prob((y1,x2)(x1,x2)).

How the component-wise moves are Metropolis-Hastings moves?

Sampling from the first component, our proposal distribution is the conditional distribution. (For all other components, we propose the current values with probability 1). Considering a move from (x1,x2) to (y1,y2), the ratio of target probabilities is

π(y1,x2)π(x1,x2).
But the ratio of proposal probabilities is
Prob((y1,x2)(x1,x2))Prob((x1,x2)(y1,x2))=π(x1,x2)zπ(z,x2)π(y1,x2)zπ(z,x2)=π(x1,x2)π(y1,x2).
So, the ratio of target probabilities and the ratio of proposal probabilities are reciprocals, and thus the acceptance probability will be 1. In this sense, each of the moves in the Gibbs sampler are special cases of Metropolis-Hastings moves. However, the overall algorithm viewed in this light is a slight generalization of the typically presented Metropolis-Hastings algorithm in that you have alternate between different proposal distributions (one for each component of the target variable).

Great answer, thanks (minor edit: y_2 -> x_2 in your third section). When calling the Gibbs sweep one step, is the existence of the stationary distribution (along with irreducibility and recurrence) a sufficient condition for convergence to the stationary distribution from any initial state?
Ian

3
The Gibbs sampler is a composition of Metropolis-Hastings moves with acceptance probability 1. Each move is reversible but the composition is not, unless the order of the steps is random.
Xi'an
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.