কুলব্যাক-লেবলার (কেএল) ডাইভারজেন্স সম্পর্কিত অন্তর্দৃষ্টি


47

কেএল ডাইভারজেন্সের পিছনে অন্তর্নিহিততা সম্পর্কে আমি শিখেছি যেমন কোনও মডেল বিতরণ ফাংশন তাত্ত্বিক / সত্যের বিতরণের থেকে তথ্যের থেকে কতটা পৃথক। উৎস আমি পরছি বলতে যে এই দুই ডিস্ট্রিবিউশন মধ্যে 'দূরত্ব' এর স্বজ্ঞাত বোঝার সহায়ক, কিন্তু আক্ষরিক গ্রহণ করা উচিত নয় কারণ দুটি ডিস্ট্রিবিউশন যায় P এবং Q , কেএল বিকিরণ প্রতিসম নয় P এবং Q

আমি শেষ বিবৃতিটি কীভাবে বুঝতে পারি তা নিশ্চিত নই, বা এখানেই 'দূরত্ব' এর অন্তর্নিহিততা ভেঙে যায়?

আমি একটি সহজ, কিন্তু অন্তর্দৃষ্টিপূর্ণ উদাহরণ প্রশংসা করব।


3
আমি মনে করি আপনাকে পিছনে যেতে হবে এবং বুঝতে হবে যে আপনার কাছে সত্যিকারের জনসংখ্যা বিতরণ এবং নমুনা (বা সত্য এবং মডেল) ইত্যাদির মধ্যে পরিসংখ্যানগুলিতে সাধারণত একটি অসাম্য থাকে এবং কেএল ডাইভারজেন্স এটিই প্রতিফলিত করে ... সাধারণ সম্ভাবনার তত্ত্বে নেই সাধারণত এই পার্থক্যটি এবং একটি প্রতিসম মেট্রিক আরও
অর্থবোধ করে

1
আপনি কোন "উত্স" পড়ছেন?
nbro

উত্তর:


34

A (মেট্রিক) দূরত্ব D অবশ্যই প্রতিসাম্য, অর্থাৎ D(P,Q)=D(Q,P) । তবে, সংজ্ঞা থেকে, KL নয়।

উদাহরণ: Ω={A,B} , P(A)=0.2,P(B)=0.8 , Q(A)=Q(B)=0.5

আমাদের আছে:

KL(P,Q)=P(A)logP(A)Q(A)+P(B)logP(B)Q(B)0.19

এবং

KL(Q,P)=Q(A)logQ(A)P(A)+Q(B)logQ(B)P(B)0.22

এইভাবে এবং সেইজন্য কে এল এ (মেট্রিক) দূরত্ব নয়।KL(P,Q)KL(Q,P)KL


50

অন্যান্য দুর্দান্ত উত্তরের সাথে যোগ করা, অন্য দৃষ্টিভঙ্গির সাথে একটি উত্তর যা সম্ভবত আরও কিছু অন্তর্দৃষ্টি যোগ করতে পারে, যা জন্য বলা হয়েছিল।

Kullback-Leibler বিকিরণ যদি কোন বিতরণে X , P এবং Q ডেটা উত্পন্ন হয় সে সম্পর্কে দুটি অনুমান থাকেতবে p ( x )

KL(P||Q)=p(x)logp(x)q(x)dx
XPQ পরীক্ষার জন্য সম্ভাবনা অনুপাতএইচ0:প্রশ্নঃবিরুদ্ধেএইচ1:পি। আমরা দেখতে পাচ্ছি যে উপরের কুলব্যাক-লেবেলার বিচ্যুতিটি তখন বিকল্প অনুমানের অধীনে লগলিস্টিওলিটি অনুপাতের প্রত্যাশিত মান। সুতরাং,কেএল(পি||প্রশ্নঃ)এই পরীক্ষাটি সমস্যার অসুবিধা একটি পরিমাপ, যখনপ্রশ্ননাল হাইপোথিসিস হয়। অপ্রতিসাম্য তাইকেএল(পি||প্রশ্নঃ)কেএল(প্রশ্নঃ||পি)p(x)q(x)H0:QH1:PKL(P||Q)QKL(P||Q)KL(Q||P) কেবল নাল এবং বিকল্প অনুমানের মধ্যে অসঙ্গতি প্রতিফলিত করে।

আসুন এটি একটি বিশেষ উদাহরণে দেখুন। যাক হতে টন ν -distribution এবং প্রশ্ন আদর্শ সাধারন বন্টনের (নীচে সংখ্যাসূচক exampe মধ্যে ν = 1 )। বিভক্তির সংজ্ঞা নির্ধারণকারী অবিচ্ছেদ্য জটিল দেখায়, সুতরাং আসুন আমরা আর-তে সংখ্যাসূচক একীকরণটি ব্যবহার করি:PtνQν=1

> lLR_1  <-  function(x) {dt(x, 1, log=TRUE)-dnorm(x, log=TRUE)}  
> integrate(function(x) dt(x, 1)*lLR_1(x), lower=-Inf, upper=Inf)
Error in integrate(function(x) dt(x, 1) * lLR_1(x), lower = -Inf, upper = Inf) : 
  the integral is probably divergent

> lLR_2  <-  function(x) {-dt(x, 1, log=TRUE)+dnorm(x, log=TRUE)}  
> integrate(function(x) dnorm(x)*lLR_2(x), lower=-Inf, upper=Inf)
0.2592445 with absolute error < 1e-07

প্রথম ক্ষেত্রে অবিচ্ছেদ্য সংখ্যাসূচকভাবে বিকিরণ ঘটে বলে মনে হয়, বিকিরণ ইঙ্গিত, খুব বড় বা অসীম দ্বিতীয় ক্ষেত্রে এটি হল ছোট, সংক্ষেপিত:

KL(P||Q)KL(Q||P)0.26

t1t1t1t1n=1t1! ভূমিকাগুলি পরিবর্তন করা, না, পার্থক্যটি বেশিরভাগই বিদেশী ভূমিকা থেকে আসে li

t1t1

এটি আমার উত্তরটির সাথে সম্পর্কিত: আমরা কেন স্বাভাবিক ত্রুটির পরিবর্তে টি ত্রুটি ব্যবহার করব?


22

D(P||Q)

SKL(P,Q)=D(P||Q)+D(Q||P)
D(P||Q)SKL(P,Q)
D(A||B)+D(B||C)D(A||C)
SKL(A,B)+SKL(B,C)SKL(A,C)
D(P||Q)=ipilog(piqi)
SKL(P,Q)=i(piqi)log(piqi)

D(A||B)=0.1log(0.10.2)+0.9log(0.90.8)0.0159
D(B||C)0.0112
D(A||C)0.0505
0.0159+0.01120.0505
SKL(A,B)0.0352
SKL(B,C)0.0234
SKL(A,C)0.1173
0.0352+0.02340.1173

আমি উদ্দেশ্য হিসাবে এই উদাহরণ চালু। আসুন কল্পনা করুন যে আপনি কয়েকটি মুদ্রা টস করছেন, উদাহরণস্বরূপ 100 বার। যতক্ষণ না এই মুদ্রাগুলি নিরপেক্ষ থাকে, আপনি 0-1 বিট, (1-মাথা, 0-পুচ্ছ) এর ক্রম সহ টসিংয়ের ফলাফলগুলি এনকোড করবেন। এই পরিস্থিতিতে যখন মাথার সম্ভাব্যতা লেজের সম্ভাবনার সমান হয় এবং 0.5 এর সমান হয়, এটি বেশ কার্যকর এনকোডিং। এখন, আমরা কিছু পক্ষপাতদুষ্ট মুদ্রা পেয়েছি, সুতরাং আমরা সংক্ষিপ্ত কোডের সাথে আরও সম্ভাব্য ফলাফলগুলি এনকোড করব, উদাহরণস্বরূপ মাথা এবং লেজগুলির গোষ্ঠীগুলিকে একত্রিত করুন এবং কে লেজের ক্রমগুলির চেয়ে লম্বা কোড সহ কে হেডের ক্রমগুলি উপস্থাপন করুন (এগুলি আরও সম্ভাব্য)। এবং এখানে কুলব্যাক-লেবেলার বিচ্যুতি । যদি পি ফলাফলের সত্যিকারের বিতরণকে উপস্থাপন করে এবং Q কেবলমাত্র পি এর অনুমান মাত্র, তবেD(P||Q)D(P||Q) Q টির জন্য এনকোডিং সহ আসলে পি ডিস্ট্রিবিউশন থেকে আগত ফলাফলগুলি এনকোড করার সময় আপনি যে জরিমানাটি প্রদান করেন তা বোঝায় (আপনার অতিরিক্ত বিটগুলির ব্যবহারের জন্য জরিমানা)।

আপনার যদি সহজভাবে মেট্রিকের প্রয়োজন হয় তবে ভট্টাচার্য দূরত্ব ব্যবহার করুন (অবশ্যই পরিবর্তিত সংস্করণ )1[xp(x)q(x)]


7
কেএল ডাইভারজেন্সের সাথে ঘনিষ্ঠ সংযোগের সাথে যদি কোনও মেট্রিক থাকার বিষয়ে উদ্বিগ্ন হয় তবে তারা ভট্টাচার্যের জায়গায় জেনসেন-শ্যানন বিভক্তির বর্গমূলকে বিবেচনা করতে পারেন।
কার্ডিনাল

5

আমি এখানে আপনার প্রশ্নের একটি নির্ভুল স্বজ্ঞাত উত্তর দিতে প্রলুব্ধ হই। আপনি যা বলছেন তা পুনরায় প্রকাশ করে, কেএল ডাইভার্জেন্স হ'ল হবার্ট স্পেসে দুটি ডেটা সেটের মধ্যকার দূরত্বটি গণনা করার জন্য দুটি বিতরণের মধ্যকার দূরত্ব পরিমাপ করার একটি উপায়, তবে কিছুটা সতর্কতা অবলম্বন করা উচিত।

কেন? কেএল বিকিরণ যেমন আপনি সাধারণত যে, এই ধরনের উদাহরণস্বরূপ যেমন ব্যবহার করতে পারেন একটি দূরত্ব নয় আদর্শ। প্রকৃতপক্ষে, এটি ইতিবাচক এবং শূন্যের সমান এবং যদি কেবল দুটি বিতরণ সমান হয় (দূরত্ব নির্ধারণের জন্য অক্ষরেখার মতো)। তবে যেমনটি উল্লেখ করা হয়েছে, এটি প্রতিসম নয়। এটি রোধ করার উপায় রয়েছে তবে এটি প্রতিসাম্যহীন না হওয়ার জন্য এটি বোঝা যায়।L2

বস্তুত, কেএল বিকিরণ একটি মডেল বন্টন মধ্যে দূরত্ব সংজ্ঞায়িত (যে আপনি আসলে জানেন) এবং একটি তাত্ত্বিক এক যেমন যে এটা জ্ঞান করে তোলে ভিন্নভাবে হ্যান্ডেল করতে ( "তাত্ত্বিক" এর দূরত্ব থেকে অভিমানী মডেল ) এবং ( "গবেষণামূলক" এর দূরত্ব থেকে ডেটা অভিমানী ) হিসাবে তারা পুরোপুরি ভিন্ন ব্যবস্থা মানে।QPKL(P,Q)PQPKL(Q,P)PQQ


4

তথ্য তত্ত্বের পাঠ্যপুস্তক উপাদানগুলি আমাদের একটি উদাহরণ দেয়:

উদাহরণস্বরূপ, যদি আমরা এলোমেলো ভেরিয়েবলের সত্যিকারের বিতরণ পিটি জানতাম, তবে আমরা গড় বর্ণনার দৈর্ঘ্য এইচ (পি) সহ একটি কোড তৈরি করতে পারি। যদি পরিবর্তে, আমরা একটি বিতরণ q এর কোড ব্যবহার করি তবে এলোমেলো ভেরিয়েবলটি বর্ণনা করার জন্য আমাদের গড়ে গড়ে গড়ে H (p) + D (p || q) বিট লাগবে।

উপরের বিবৃতিটি প্যারাফ্রেস করতে, আমরা বলতে পারি যে আমরা যদি তথ্য বিতরণ পরিবর্তন করি (q থেকে p তে) আমাদের নতুন ডিস্ট্রিবিউশন কোড করার জন্য গড়ে ডি বি (পি || কিউ) অতিরিক্ত বিট প্রয়োজন।

একটি দৃষ্টান্ত

প্রাকৃতিক ভাষা প্রক্রিয়াকরণে এটির একটি প্রয়োগ ব্যবহার করে এটি চিত্রিত করি।

বিবেচনা করুন যে মানুষ বৃহৎ গ্রুপ, লেবেল বি, মধ্যস্থতাকারী এবং তাদের প্রতিটি থেকে একটি বিশেষ্য পছন্দ করে নিন একটি টাস্ক নির্ধারিত হয় turkey, animalএবং bookএবং প্রেরণ এটা সি করার জন্য একটি লোক NAME একটি যারা দিতে একটি ইমেইল তাদের প্রতিটি পাঠাতে পারে নেই তাদের কিছু ইঙ্গিত। গ্রুপের কেউ ইমেল না পেলে তারা ভ্রু বাড়াতে পারে এবং সিটির কী প্রয়োজন তা বিবেচনা করে কিছুক্ষণ দ্বিধায় পড়তে পারে। এবং প্রতিটি বিকল্প নির্বাচিত হওয়ার সম্ভাবনাটি 1/3। সামগ্রিকভাবে অভিন্ন বিতরণ (যদি তা না হয় তবে এটি তাদের নিজস্ব পছন্দের সাথে সম্পর্কিত হতে পারে এবং আমরা কেবল এই জাতীয় কেসগুলিকে উপেক্ষা করি)।

তবে যদি তাদের একটি ক্রিয়া দেওয়া হয়, যেমন baste, তাদের মধ্যে 3/4 টি চয়ন করতে পারে turkeyএবং 3/16 চয়ন করতে পারে animalএবং 1/16 পছন্দ করে book। তারপরে ক্রিয়াটি জানার পরে প্রতিটি মধ্যস্থতাকারী প্রতিটি বিটগুলিতে কতটা তথ্য পেয়েছেন? এটাই:

D(p(nouns|baste)||p(nouns))=x{turkey,animal,book}p(x|baste)log2p(x|baste)p(x)=34log23413+316log231613+116log211613=0.5709  bits

কিন্তু প্রদত্ত ক্রিয়াটি হলে কী হবে read? আমরা কল্পনা করতে পারি যে bookএগুলি প্রত্যেকে বিনা দ্বিধায় বেছে নেবে, তারপরে ক্রিয়াটি থেকে প্রতিটি মধ্যস্থতার জন্য গড় তথ্য প্রাপ্তি readহ'ল:

D(p(nouns|read)||p(nouns))=x{book}p(x|read)log2p(x|read)p(x)=1log2113=1.5849  bits
আমরা দেখতে পাচ্ছি যে ক্রিয়াটি readমধ্যস্থতাকারীদের আরও তথ্য দিতে পারে। এবং এটাই আপেক্ষিক এনট্রপি পরিমাপ করতে পারে।

আমাদের গল্প অবিরত করা যাক। সি যদি সন্দেহ করে যে বিশেষ্যটি ভুল হতে পারে কারণ এ তাকে বলেছিল যে তিনি ভুল ক্রিয়াটি মধ্যস্থতাকারীদের কাছে প্রেরণ করে ভুল করেছেন। তারপরে বিটের মধ্যে এই জাতীয় খারাপ খবরের একটি টুকরো কত তথ্য দিতে পারে?

1) ক দ্বারা প্রদত্ত ক্রিয়াটি হ'ল baste:

D(p(nouns)||p(nouns|baste))=x{turkey,animal,book}p(x)log2p(x)p(x|baste)=13log21334+13log213316+13log213116=0.69172  bits

2) তবে ক্রিয়াটি যদি হত read?

D(p(nouns)||p(nouns|baste))=x{book,,}p(x)log2p(x)p(x|baste)=13log2131+13log2130+13log2130=  bits

যেহেতু সি কখনই জানেন না যে অন্য দুটি বিশেষ্যটি কী হবে এবং শব্দভাণ্ডারের কোনও শব্দই সম্ভব হবে।

আমরা দেখতে পাচ্ছি যে কেএল ডাইভার্জেন্সটি অসম্পূর্ণ met

আমি আশা করি আমি ঠিক আছি, এবং না হলে মন্তব্য করুন এবং আমাকে সংশোধন করতে সহায়তা করুন। আগাম ধন্যবাদ.

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.