ইন্টোর মন্টি কার্লো অ্যালগরিদমে মিনিম্যাক্স নীতি


22

উদযাপিত ইয়াওর মিনিম্যাক্স নীতিটি বিতরণ জটিলতা এবং এলোমেলো জটিলতার মধ্যে সম্পর্ককে বর্ণনা করে। যাক পিP একটি নির্দিষ্ট সেট নিয়ে কোনও সমস্যা হয়ে এক্সX ইনপুট এবং একটি সসীম সেট একটিA সমাধানের জন্য নির্ণায়ক আলগোরিদিম পিP । এছাড়াও দিন ডিD ইনপুট বন্টন বোঝাতে দিন আরR উপর সম্ভাব্যতা বিতরণের বোঝাতে একটিA । তারপরে নীতিটি ন্যূনতম A A উল্লেখ করে সি এস টি ( , ডি ) সর্বাধিক x এক্স সি এস টি ( আর , এক্স )সমস্ত  ডি  এবং  আর এর জন্য

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.
এই প্রমাণটি সরাসরি শূন্য-সমীকরণের খেলাগুলির জন্য ভন নিউমানের মিনিম্যাক্স উপপাদ্য থেকে অনুসরণ করে।

বেশিরভাগ ইয়াও নীতি কেবল লাস ভেগাস অ্যালগরিদমগুলির সাথে সম্পর্কিত , তবে এটি মন্টি কার্লো অ্যালগরিদমকে সাধারণভাবে অনুসরণ করা যেতে পারে । 12 মিনিট সি এস টি 2 ϵ ( , ডি ) সর্বাধিক x এক্স সি এস টি ϵ ( আর , এক্স )সব জন্য  ডিআর  এবং  ε [ 0 , 1 / 2 ]

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]
যেখানেগুলি টি ε ( , )costϵ(,) মন্টে কার্লো আলগোরিদিম খরচ দিতে হবে যা সর্বোচ্চ সম্ভাবনা ভুল উল্লেখ করে εϵ

ইন ইয়াও মূল কাগজ , মন্টে কার্লো আলগোরিদিম জন্য সম্পর্ক প্রমানহীন উপপাদ্য 3 দেওয়া হয়। এটি প্রমাণ করার জন্য কোনও ইঙ্গিত?

উত্তর:


6

এটি মার্কোসের উত্তরের উপর তাঁর স্বরলিপিটি ব্যবহার করে কেবল একটি বর্ধিত মন্তব্য। আমি তার যুক্তির বিবরণগুলি অনুসরণ করতে যথেষ্ট সক্ষম নই এবং নীচের একটিটি খুব ছোট এবং সহজ।

গড়, কসম Σ একটি কুই ( একটি ) Σ এক্স( এক্স ) ε ( একটি , এক্স ) = Σ এক্স( এক্স ) Σ একটি কুই ( একটি ) ε ( একটি , এক্স )λ

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

আসলে উপরে এবং মার্কভ এর বৈষম্য পরোক্ষভাবে Σ একটি বিটা ( 2 λ ) কুই ( একটি )1 / 2Aβ(2λ)q(A)1/2

সুতরাং আমরা পেতে:

সর্বাধিক এক্স কিউ ( ) আর ( , এক্স ) x d ( x ) A q ( A ) r ( A , x )= A q ( A ) x d ( x ) r ( A , x )Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)Aβ(2λ)q(A)minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)

8

I'll give it a try on this. I'm going to use Yao's original notation. This way it will be easier to contrast with his paper and his definitions.

Let II be a finite set of inputs, and let A0A0 be a finite set of deterministic algorithms that may fail to give a correct answer for some inputs. Let also ϵ(A,x)=0ϵ(A,x)=0 if AA gives the correct answer for xx, and ϵ(A,x)=1ϵ(A,x)=1 otherwise. Also denote by r(A,x)r(A,x) the number of queries made by AA on input xx, or equivalently, the depth of AA's decision tree.

Average Cost: Given a probability distribution dd on II, the average cost of an algorithm AA0AA0 is C(A,d)=xId(x)r(A,x)C(A,d)=xId(x)r(A,x).

Distributional Complexity: Let λ[0,1]λ[0,1]. For any distribution dd on the inputs, let β(λ)β(λ) be the subset of A0A0 given by β(λ)={A:AA0,xId(x)ϵ(A,x)λ}β(λ)={A:AA0,xId(x)ϵ(A,x)λ}. The distributional complexity with error λλ for a computational problem PP is defined as F1,λ(P)=maxdminAβ(λ)C(A,d)F1,λ(P)=maxdminAβ(λ)C(A,d).

λλ-tolerance: A distribution qq on the family A0A0 is λλ-tolerant if maxxIAA0q(A)ϵ(A,x)λmaxxIAA0q(A)ϵ(A,x)λ.

Expected Cost: For a randomized algorithm RR, let qq be a probability distribution that is λλ-tolerant on A0A0. The expected cost of RR for a given input xx is E(R,x)=AA0q(A)r(A,x)E(R,x)=AA0q(A)r(A,x).

Randomized Complexity: Let λ[0,1]λ[0,1]. The randomized complexity with error λλ is F2,λ=minRmaxxIE(R,x)F2,λ=minRmaxxIE(R,x).

Now we are ready to go into business. What we want to prove is given a distribution dd on the inputs and a randomized algorithm RR (i.e., a distribution qq on A0A0)

Yao's Minimax Principle for Montecarlo Algorithms maxxIE(R,x)12minAβ(2λ)C(A,d)

maxxIE(R,x)12minAβ(2λ)C(A,d)
for λ[0,1/2]λ[0,1/2].

I will follow an approach given by Fich, Meyer auf der Heide, Ragde and Wigderson (see Lemma 4). Their approach does not yield a characterization for Las Vegas algorithms (only the lower bound), but it is sufficient for our purposes. From their proof, it easy to see that for any A0A0 and II

Claim 1. maxxIE(R,x)minAA0C(A,d)maxxIE(R,x)minAA0C(A,d).

To get the correct numbers there, we'll do something similar. Given that the probability distribution qq given by the randomized algorithm RR is λλ-tolerant on A0A0 we have that λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.
If we replace the family A0A0 with β(2λ)β(2λ) we see that

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

λmaxxI{AA0q(A)ϵ(A,x)}maxxIAβ(2λ)q(A)ϵ(A,x)xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

where the second inequality follows because β(2λ)A0β(2λ)A0, and the last inequality is given by the definition of β(2λ)β(2λ) where the summation divided by 2 cannot be greater than λλ. Hence, maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

By noting that ϵϵ maps to {0,1}{0,1} and rr maps to NN and Claim 1 above, now we can safely replace the function ϵϵ in the inequality above by r(A,x)r(A,x) to obtain the desired inequality.


Is there a short explanation for where the factor of 2 comes from?
Robin Kothari

in short, it comes from the definition of β(2λ)β(2λ). The summation in the definition divided by 2 is at most λλ.
Marcos Villagra

something seems strange to me. by definition, maxAβ(2λ)){12xId(x),ϵ(A,x)}λmaxAβ(2λ)){12xId(x),ϵ(A,x)}λ so why the min?
Sasho Nikolov

and i don't understand the last sentence. how did you make an entire argument about ϵϵ and then replaced it with rr?
Sasho Nikolov

regarding your first question, I added more details.
Marcos Villagra
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.