Heuristically, উপর সম্ভাব্যতা ঘনত্ব ফাংশন সর্বাধিক এনট্রপি সঙ্গে সক্রিয় আউট এক জ্ঞান অন্তত পরিমাণ অনুরূপ যে হতে { এক্স 1 , x 2 , । । , । এক্স এন } , অন্য কথায় ইউনিফর্ম বন্টন।{x1,x2,..,.xn}{x1,x2,..,.xn}
এখন, আরও আনুষ্ঠানিক প্রমাণের জন্য নিম্নলিখিতগুলি বিবেচনা করুন:
একটি সম্ভাব্যতা ঘনত্ব ফাংশন নন-নেগেটিভ বাস্তব সংখ্যার একটি সেট পি 1 , । । । , পি এন যে 1. এনট্রপি পর্যন্ত যোগ একটি অবিচ্ছিন্ন ফাংশন এন -tuples ( পি 1 , । । । , পৃ এন ) , এবং এই পয়েন্ট একটি কম্প্যাক্ট উপসেট থাকা আর এন , তাই সেখানে একটি এন{x1,x2,..,.xn}p1,...,pnn(p1,...,pn)Rnn-তুপল যেখানে এনট্রপি সর্বাধিক করা হয়। আমরা এই ঘটে দেখাতে চান এবং কোথাও।(1/n,...,1/n)
ধরুন, সব সমান নয়, বলুন পি 1 < পি 2 । (স্পষ্টভাবে এন ≠ 1। ) আমরা উচ্চতর এনট্রপি সহ একটি নতুন সম্ভাবনার ঘনত্ব খুঁজে পাব। তখনই অনুসরণ যেহেতু এনট্রপি কিছু বড় করা হয়, এন , -tuple যে এনট্রপি স্বতন্ত্র এ বড় করা হয় এন সঙ্গে -tuple পি আমি = 1 / এন সবার জন্য আমি ।pjp1<p2n≠1nnpi=1/ni
যেহেতু ছোট ইতিবাচক জন্য, ε আমরা আছে পি 1 + + ε < পি 2 - ε । { পি 1 + ε , পি 2 - ε , পি 3 , এর এনট্রপি । । । , পি এন } বিয়োগ এর এনট্রপি { P 1 , পৃ 2 , পি 3 , । । । , পিp1<p2εp1+ε<p2−ε{p1+ε,p2−ε,p3,...,pn} সমান{p1,p2,p3,...,pn}
প্রমাণ সম্পূর্ণ করার জন্য, আমরা এই ছোট যথেষ্ট জন্য ইতিবাচক দেখাতে চানε। উপরের সমীকরণটি আবার লিখুন
-পি1লগ(1+ε) ε
−p1log(p1+εp1)−εlog(p1+ε)−p2log(p2−εp2)+εlog(p2−ε)
ε−p1log(1+εp1)−ε(logp1+log(1+εp1))−p2log(1−εp2)+ε(logp2+log(1−εp2))
ছোট এক্স এর জন্য সেই স্মরণ করে , উপরের সমীকরণটি হ'ল
- ε - ε লগ পি 1 + ε + ε লগ পি 2 + ও ( ε 2 ) = ε লগ ( পি 2) / পি 1 ) + ও ( ε 2 )
যা তখন ইতিবাচক হয়log(1+x)=x+O(x2)x
−ε−εlogp1+ε+εlogp2+O(ε2)=εlog(p2/p1)+O(ε2)
পি 1 < পি 2 থেকে
ε যথেষ্ট ছোট।
εp1<p2
একটি কম কঠোর প্রমাণ নিম্নলিখিত:
প্রথমে নীচের লেমাকে বিবেচনা করুন:
যাক এবং কুই ( এক্স ) একটি বিরতি উপর ক্রমাগত সম্ভাব্যতা ঘনত্ব ফাংশন হতে
আমি বাস্তব সংখ্যায় সঙ্গে পি ≥ 0 এবং কুই > 0 উপর আমি । আমরা আশা করি আপনি
- ∫ আমি পি লগ ইন করুন পি ঘ এক্স ≤ - ∫ আমি পি লগ কুই ঘ এক্স
উভয় ইন্টেগ্রাল বিদ্যমান। তদুপরি, p ( x ) = q ( কেবলমাত্র এবং যদি সাম্য থাকে তবেp(x)q(x)Ip≥0q>0I
−∫Iplogpdx≤−∫Iplogqdx
সমস্ত
x এর জন্য ।
p(x)=q(x)x
আসুন, এখন কোন সম্ভাব্যতা ঘনত্ব ফাংশন হতে { এক্স 1 , । । । , x n } , পি আই = পি ( এক্স আই ) সহ । সকল i এর জন্য q i = 1 / n লেট করা ,
- n ∑ i = 1 পি আমি লগ করি q i = n ∑ i = 1 পি আমি লগ এন =p{x1,...,xn}pi=p(xi)qi=1/ni
যা q এর ইন্ট্রপি । সুতরাং আমাদের লেমা h ( p ) ≤ h ( q ) বলেছেন , সমতা সহ যদি এবং কেবল p সমান হয়।
−∑i=1npilogqi=∑i=1npilogn=logn
qh(p)≤h(q)p
এছাড়াও, উইকিপিডিয়াতেও এই বিষয়ে একটি সংক্ষিপ্ত আলোচনা রয়েছে: উইকি