বোধগম্য বন্টন এবং গাউসীয় মডেলের মধ্যে কেন স্কোয়ার ত্রুটি ক্রস-এনট্রপি হয়?


28

5.5-এ, ডিপ লার্নিং (ইয়ান গুডফেলো, যোশুয়া বেনজিও এবং অ্যারন কউরভিলি দ্বারা), এতে বলা হয়েছে

নেতিবাচক লগ-সম্ভাবনা সমন্বিত যে কোনও ক্ষতি প্রশিক্ষণ সেট দ্বারা সংজ্ঞায়িত অভিজ্ঞতা অভিজ্ঞতা এবং মডেল দ্বারা সংজ্ঞায়িত সম্ভাবনা বিতরণের মধ্যে একটি ক্রস-এনট্রপি। উদাহরণস্বরূপ, বর্গক্ষেত্রের ত্রুটিটি বোঝার জন্য অভিজ্ঞতা অভিজ্ঞতা এবং গাউসির একটি মডেলের মধ্যে ক্রস-এনট্রপি।

এগুলি কেন সমতুল্য এবং লেখকরা বিন্দুতে প্রসারিত হয় না তা আমি বুঝতে পারি না।

উত্তর:


32

ডেটাটি । অনুপ্রেরণামূলক বিতরণের জন্য F ( x ) লিখুন । সংজ্ঞা দ্বারা, কোন ফাংশন জন্য ,x=(x1,,xn)F(x)f

EF(x)[f(X)]=1ni=1nf(xi).

মডেল যাক আছে ঘনত্ব ( এক্স ) যেখানে মডেলের সাপোর্টে সংজ্ঞায়িত করা হয়। ক্রস-এনট্রপি এর এফ ( এক্স ) এবং এম হতে সংজ্ঞায়িত করা হয়Mef(x)fF(x)M

(1)H(F(x),M)=EF(x)[log(ef(X)]=EF(x)[f(X)]=1ni=1nf(xi).

ধরে নেওয়া একটি সাধারণ এলোমেলো নমুনা, এটির নেতিবাচক লগ হওয়ার সম্ভাবনাx

(2)log(L(x))=logi=1nef(xi)=i=1nf(xi)

(2)n(1)


p(x)xf

f(x;p,σ)=12(log(2πσ2)+(xp(x))2σ2),

(xp(x))2 1/(2σ2)σσσ

σ=σ(x)


1
g()f()F()σ2ki=1n(xip(xi))212log[i=1n(xip(xi))2]+h(k)

Ff

হাই, আমি মনে করি এটি কেবল রৈখিক বিতরণে প্রয়োগ করা হয়। অনৈখিক বিতরণ সমস্যাগুলিতে, আমি মনে করি আমরা এখনও এমএসইকে ব্যয় হিসাবে ব্যবহার করতে পারি, তাই না?
সিংহ লাই

5

ডিপ লার্নিং বইয়ের পাঠকদের জন্য, আমি চমৎকার গ্রহণযোগ্য উত্তরটি যুক্ত করতে চাই যে লেখকরা তাদের বক্তব্যটি 5.5.1 বিভাগে বিস্তারিতভাবে ব্যাখ্যা করেছেন যথা উদাহরণ: লিনিয়ার রিগ্রেশন সর্বাধিক সম্ভাবনা হিসাবে

সেখানে তারা গ্রহণযোগ্য উত্তরে উল্লিখিত বাধা ঠিকঠাক করে:

p(y|x)=N(y;y^(x;w),σ2)y^(x;w)σ2

p(y|x)

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.