এল 2 নিয়মিতকরণ গাউসিয়ান পূর্বের সমতুল্য


56

আমি এটি পড়তে থাকি এবং স্বজ্ঞাতভাবে আমি এটি দেখতে পারি তবে এল 2 নিয়মিতকরণ থেকে কেউ কীভাবে বলতে পারেন যে এটি বিশ্লেষণাত্মকভাবে গাউসিয়ান প্রাইমার? একইভাবে এল 1 বলার আগে ল্যাপলেশনের সমান।

পরবর্তী কোনও রেফারেন্স দুর্দান্ত হবে।

উত্তর:


54

আমাদের কল্পনা আপনি কিছু প্যারামিটার অনুমান করা চান β কিছু পর্যবেক্ষিত ইনপুট-আউটপুট জোড়া থেকে (x1,y1),(xN,yN) । আসুন ধরে নেওয়া যাক আউটপুটগুলি ইনপুটগুলির সাথে লাইনিকভাবে সম্পর্কিত মাধ্যমে βএবং কিছু শব্দে ডেটাটি দূষিত হয় ϵ :

yn=βxn+ϵ,

যেখানে গড় সঙ্গে গসিয়ান গোলমাল 0 এবং ভ্যারিয়েন্স σ 2 । এটি গাউসিয়ান সম্ভাবনার জন্ম দেয়:ϵ0σ2

n=1NN(yn|βxn,σ2).

আমাদের পরামিতি নিয়মিত যাক মনোরম গসিয়ান পূর্বে দ্বারা এন ( β | 0 , λ - 1 ) , যেখানে λ একটি কঠোরভাবে ইতিবাচক স্কালে হয়। অতএব, সম্ভাবনা এবং আমাদের সহজভাবে থাকা পূর্বের সমন্বয়:βN(β|0,λ1),λ

n=1NN(yn|βxn,σ2)N(β|0,λ1).

আসুন উপরের অভিব্যক্তিটির লগারিদমটি গ্রহণ করি। আমরা পাই এমন কিছু ধ্রুবক বাদ দিচ্ছি:

n=1N1σ2(ynβxn)2λβ2+const.

আমরা যদি সম্মানের সঙ্গে উপরে অভিব্যক্তি বাড়ানোর লক্ষ্যে , তখন আমরা তথাকথিত সর্বোচ্চ একটি আরোহী অনুমান পেতে β , বা সংক্ষেপে মানচিত্র আনুমানিক হিসাব। এই অভিব্যক্তিতে এটি স্পষ্ট হয়ে যায় যে কেন গাউসীয় পূর্বে এল 2 নিয়মিতকরণ শব্দ হিসাবে ব্যাখ্যা করা যায়।ββ


একইভাবে L1 আদর্শ এবং ল্যাপ্লেসের আগের সম্পর্ক একই ফ্যাশনে বোঝা যায়। কোনও গাউসিয়ান পূর্বে পরিবর্তে নিন, একটি ল্যাপ্লেস পূর্ব আপনার সম্ভাবনার সাথে এটি একত্রিত করুন এবং লগারিদম নিন।

উভয় ইস্যুর বিবরণ দেওয়ার একটি ভাল রেফারেন্স (সম্ভবত কিছুটা উন্নত) হ'ল কাগজটি "তদারকি শিক্ষার জন্য অভিযোজিত স্পারনেস" যা বর্তমানে অনলাইনে খুঁজে পাওয়া সহজ বলে মনে হয় না। বিকল্পভাবে "জেফরি প্রাইমার ব্যবহার করে অ্যাডাপটিভ স্পারনেস" দেখুন । আরেকটি ভাল রেফারেন্স হ'ল "ল্যাপ্লেস প্রিয়ার্স সহ বায়েশিয়ান শ্রেণিবিন্যাস"


1
একটি D dimensionরৈখিক রিগ্রেশনের মামলা, করতে betaএবং sigmaস্পষ্ট সমাধান আছে? আমি পিআরএমএল পড়ছি, এবং পৃষ্ঠা 30 এ সমীকরণ (1.67) খুঁজে পাচ্ছি এবং কীভাবে এটি সমাধান করবেন সে সম্পর্কে কোনও ধারণা নেই। সর্বাধিক সম্ভাবনায়, আমরা সমাধান করি betaএবং তারপরে sigmaগ্রেডিয়েন্টটি শূন্যে সেট করে। নিয়মিতভাবে সর্বনিম্ন স্কোয়ারে, যেহেতু প্রয়োজনীয়করণের পরম কিছু lambdaজানা যায়, আমরা betaসরাসরি সমাধান করি । কিন্তু যদি আমরা সরাসরি মানচিত্র সমাধান, কি সমাধানে ক্রম এর beta, sigma? তাদের স্পষ্ট সমাধান থাকতে পারে বা আমাদের অবশ্যই পুনরাবৃত্তি প্রক্রিয়াটি ব্যবহার করতে পারি?
stackunderflow

λβλβ2

@ অ্যাডামো এটি সহগের গ্রহণযোগ্য মানগুলি সীমাবদ্ধ করে। উদাহরণস্বরূপ যদি পূর্বেরটি 1-10 এর মধ্যে হয় তবে তার সাথে অন্য কোনও মান যেমন, [-inf থেকে 1] এবং [10, + ইনফ] নেওয়া সহগের 0 সম্ভাবনা রয়েছে।
imsrgadich

1
σ2σ2

11

L2

নোট করুন যে বায়েসীয় উত্তরোত্তর একটি সম্ভাবনার বন্টন হিসাবে আরও মৌলিক পার্থক্য রয়েছে, যখন তিখোনভ নিয়মিতভাবে ন্যূনতম স্কোয়ার সমাধান একটি নির্দিষ্ট পয়েন্ট অনুমান।

বিপরীত সমস্যার জন্য বায়েশিয়ান পদ্ধতিগুলির অনেক পাঠ্যপুস্তকে এটি আলোচনা করা হয়েছে, উদাহরণস্বরূপ দেখুন:

http://www.amazon.com/Inverse-Problem-Methods-Parameter-Estimation/dp/0898715725/

http://www.amazon.com/Parameter-Estimation-Inverse-Problems-Second/dp/0123850487/

L1


9

প্রথম লক্ষ্য করুন যে মিডিয়ান এল 1 আদর্শকে ন্যূনতম করে ( এল 1 এবং এল 2 সম্পর্কে আরও শিখার জন্য এখানে বা এখানে দেখুন)

median(x)=argminsi|xis|1

যখন মানে এল 2 হ্রাস করে

mean(x)=argminsi|xis|2

μμ


হারলি, ডব্লিউজে (২০০৯) ডাবল এক্সপেনসিয়াল ডিস্ট্রিবিউশনের জন্য এমএলই গণনা করার জন্য একটি সূচক পদ্ধতিআধুনিক প্রয়োগিত পরিসংখ্যান পদ্ধতির জার্নাল: 8 (2), অনুচ্ছেদ 25।


সম্ভবত এটি এখানে দেওয়া সবচেয়ে গাণিতিকভাবে কঠোর উত্তর নয়, তবে এটি নিশ্চিতভাবে L1 / L2 নিয়মিতকরণের প্রাথমিকের জন্য সবচেয়ে সহজ, সবচেয়ে স্বজ্ঞাত one
এসকিউএল সার্ভারস্টেভ

8

k

minβ(yXβ)(yXβ)

পেনাল্টির সাথে নিয়মিত রেজিস্ট্রেশনে doLp

minβ(yXβ)(yXβ)+λi=1k|βi|p

আমরা সমানভাবে করতে পারি (সাইন পরিবর্তনগুলি নোট করুন)

maxβ(yXβ)(yXβ)λi=1k|βi|p

এটি সরাসরি বায়েশিয়ান নীতির সাথে সম্পর্কিত

posteriorlikelihood×prior

বা সমতুল্য (নিয়মিততার শর্তে)

log(posterior)log(likelihood)+log(penalty)

কোন সূক্ষ্ম পরিবার বিতরণ কোন জরিমানার প্রকারের সাথে মিলে যায় তা এখন দেখা কঠিন নয়।


3

সমতা আরও স্পষ্টভাবে বলা:

এল 2 নিয়মিতকরণের সাথে স্কোয়ার ত্রুটি ক্ষতির ফাংশন হ্রাস করার জন্য মডেল ওজনগুলির অনুকূলকরণ বেইস নিয়মের সাহায্যে মূল্যায়ন উত্তরোত্তর বিতরণের অধীনে সম্ভবত এমন ওজনগুলি সন্ধানের সমতুল্য, পূর্বে শূন্য-স্বতন্ত্র গাউসিয়ান ওজন সহ

প্রমাণ:

উপরে বর্ণিত হিসাবে ক্ষতি ফাংশন দ্বারা দেওয়া হবে

L=[n=1N(y(n)fw(x(n)))2]Originallossfunction+λi=1Kwi2L2loss

নোট করুন যে মাল্টিভারিয়েট গাউসির বিতরণটি হ'ল

N(x;μ,Σ)=1(2π)D/2|Σ|1/2exp(12(xμ)Σ1(xμ))

বেয়েস রুল ব্যবহার করে আমাদের তা আছে

p(w|D)=p(D|w)p(w)p(D)p(D|w)p(w)[nNN(y(n);fw(x(n)),σy2)]N(w;0,σw2I)nNN(y(n);fw(x(n)),σy2)i=1KN(wi;0,σw2)

যেখানে আমরা বহু-মাত্রিক গুসিয়ানকে একটি প্রোডাক্টে বিভক্ত করতে সক্ষম হয়েছি, কারণ সমবায়ু পরিচয় ম্যাট্রিক্সের একাধিক।

নেতিবাচক লগ সম্ভাবনা নিন

log[p(w|D)]=n=1Nlog[N(y(n);fw(x(n)),σy2)]i=1Klog[N(wi;0,σw2)]+const.=12σy2n=1N(y(n)fw(x(n)))2+12σw2i=1Kwi2+const.

আমরা অবশ্যই ধ্রুবকটি ড্রপ করতে পারি এবং ক্ষতির ক্রিয়াকলাপটিকে মৌলিকভাবে প্রভাবিত না করে কোনও পরিমাণে গুণতে পারি। (ধ্রুবক কিছুই করে না, গুণগুলি কার্যকরভাবে শিক্ষার হারকে মাপায়। মিনিমার অবস্থানকে প্রভাবিত করবে না) সুতরাং আমরা দেখতে পাচ্ছি যে উত্তরোত্তর বিতরণের নেতিবাচক লগ সম্ভাবনাটি L2 নিয়মিত স্কোয়ার ত্রুটি ক্ষতি ফাংশনের সমতূল্য ক্ষতির কাজ।

এই ইক্যুইভ্যালেন্সটি সাধারণ এবং ওজনগুলির যে কোনও প্যারামিটারাইজড ফাংশনের জন্য ধারণ করে - উপরে বর্ণিত বলে মনে হয় কেবল লিনিয়ার রিগ্রেশন নয়।


1

বায়সিয়ান মডেলিংয়ের দুটি বৈশিষ্ট্য রয়েছে যেগুলিকে জোর দেওয়া দরকার, যখন নির্দিষ্ট শাস্তিযুক্ত সর্বাধিক সম্ভাবনার প্রাক্কলন এবং বায়সিয়ান পদ্ধতিগুলির সমতা নিয়ে আলোচনা করা হয়।

  1. বায়েশিয়ান কাঠামোয়, পূর্ববর্তীটি সমস্যার নির্দিষ্টতার উপর ভিত্তি করে নির্বাচিত হয় এবং এটি গণনীয় সাফল্যের দ্বারা অনুপ্রাণিত হয় না। অতএব, বেয়েশিয়ানরা বিরল পূর্বাভাসকারী সমস্যার আগে এখন জনপ্রিয় ঘোড়াওয়ালা সহ বিভিন্ন প্রাইভর ব্যবহার করে এবং এল 1 বা এল 2 জরিমানার সমতুল্য প্রিয়ারদের উপর এত বেশি নির্ভর করার দরকার নেই।
  2. সম্পূর্ণ বায়েশিয়ান পদ্ধতির সাহায্যে আপনার কাজ শেষ হয়ে গেলে সমস্ত অনুমানমূলক পদ্ধতিতে আপনার অ্যাক্সেস থাকতে পারে। উদাহরণস্বরূপ আপনি বৃহত্তর রিগ্রেশন সহগের জন্য প্রমাণকে মাপ দিতে পারেন এবং আপনি রিগ্রেশন সহগ এবং সামগ্রিক পূর্বাভাসিত মানগুলির উপর বিশ্বাসযোগ্য অন্তর পেতে পারেন। ঘনঘনবাদী কাঠামোর মধ্যে, একবার আপনি শাস্তি বেছে নিলে আপনি সমস্ত অনুমানমূলক মেশিন হারাবেন।
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.