উত্তর:
আমাদের কল্পনা আপনি কিছু প্যারামিটার অনুমান করা চান কিছু পর্যবেক্ষিত ইনপুট-আউটপুট জোড়া থেকে । আসুন ধরে নেওয়া যাক আউটপুটগুলি ইনপুটগুলির সাথে লাইনিকভাবে সম্পর্কিত মাধ্যমে এবং কিছু শব্দে ডেটাটি দূষিত হয় :
যেখানে গড় সঙ্গে গসিয়ান গোলমাল 0 এবং ভ্যারিয়েন্স σ 2 । এটি গাউসিয়ান সম্ভাবনার জন্ম দেয়:
আমাদের পরামিতি নিয়মিত যাক মনোরম গসিয়ান পূর্বে দ্বারা এন ( β | 0 , λ - 1 ) , যেখানে λ একটি কঠোরভাবে ইতিবাচক স্কালে হয়। অতএব, সম্ভাবনা এবং আমাদের সহজভাবে থাকা পূর্বের সমন্বয়:
আসুন উপরের অভিব্যক্তিটির লগারিদমটি গ্রহণ করি। আমরা পাই এমন কিছু ধ্রুবক বাদ দিচ্ছি:
আমরা যদি সম্মানের সঙ্গে উপরে অভিব্যক্তি বাড়ানোর লক্ষ্যে , তখন আমরা তথাকথিত সর্বোচ্চ একটি আরোহী অনুমান পেতে β , বা সংক্ষেপে মানচিত্র আনুমানিক হিসাব। এই অভিব্যক্তিতে এটি স্পষ্ট হয়ে যায় যে কেন গাউসীয় পূর্বে এল 2 নিয়মিতকরণ শব্দ হিসাবে ব্যাখ্যা করা যায়।
একইভাবে L1 আদর্শ এবং ল্যাপ্লেসের আগের সম্পর্ক একই ফ্যাশনে বোঝা যায়। কোনও গাউসিয়ান পূর্বে পরিবর্তে নিন, একটি ল্যাপ্লেস পূর্ব আপনার সম্ভাবনার সাথে এটি একত্রিত করুন এবং লগারিদম নিন।
উভয় ইস্যুর বিবরণ দেওয়ার একটি ভাল রেফারেন্স (সম্ভবত কিছুটা উন্নত) হ'ল কাগজটি "তদারকি শিক্ষার জন্য অভিযোজিত স্পারনেস" যা বর্তমানে অনলাইনে খুঁজে পাওয়া সহজ বলে মনে হয় না। বিকল্পভাবে "জেফরি প্রাইমার ব্যবহার করে অ্যাডাপটিভ স্পারনেস" দেখুন । আরেকটি ভাল রেফারেন্স হ'ল "ল্যাপ্লেস প্রিয়ার্স সহ বায়েশিয়ান শ্রেণিবিন্যাস" ।
নোট করুন যে বায়েসীয় উত্তরোত্তর একটি সম্ভাবনার বন্টন হিসাবে আরও মৌলিক পার্থক্য রয়েছে, যখন তিখোনভ নিয়মিতভাবে ন্যূনতম স্কোয়ার সমাধান একটি নির্দিষ্ট পয়েন্ট অনুমান।
বিপরীত সমস্যার জন্য বায়েশিয়ান পদ্ধতিগুলির অনেক পাঠ্যপুস্তকে এটি আলোচনা করা হয়েছে, উদাহরণস্বরূপ দেখুন:
http://www.amazon.com/Inverse-Problem-Methods-Parameter-Estimation/dp/0898715725/
http://www.amazon.com/Parameter-Estimation-Inverse-Problems-Second/dp/0123850487/
প্রথম লক্ষ্য করুন যে মিডিয়ান এল 1 আদর্শকে ন্যূনতম করে ( এল 1 এবং এল 2 সম্পর্কে আরও শিখার জন্য এখানে বা এখানে দেখুন)
যখন মানে এল 2 হ্রাস করে
হারলি, ডব্লিউজে (২০০৯) ডাবল এক্সপেনসিয়াল ডিস্ট্রিবিউশনের জন্য এমএলই গণনা করার জন্য একটি সূচক পদ্ধতি । আধুনিক প্রয়োগিত পরিসংখ্যান পদ্ধতির জার্নাল: 8 (2), অনুচ্ছেদ 25।
পেনাল্টির সাথে নিয়মিত রেজিস্ট্রেশনে do
আমরা সমানভাবে করতে পারি (সাইন পরিবর্তনগুলি নোট করুন)
এটি সরাসরি বায়েশিয়ান নীতির সাথে সম্পর্কিত
বা সমতুল্য (নিয়মিততার শর্তে)
কোন সূক্ষ্ম পরিবার বিতরণ কোন জরিমানার প্রকারের সাথে মিলে যায় তা এখন দেখা কঠিন নয়।
সমতা আরও স্পষ্টভাবে বলা:
এল 2 নিয়মিতকরণের সাথে স্কোয়ার ত্রুটি ক্ষতির ফাংশন হ্রাস করার জন্য মডেল ওজনগুলির অনুকূলকরণ বেইস নিয়মের সাহায্যে মূল্যায়ন উত্তরোত্তর বিতরণের অধীনে সম্ভবত এমন ওজনগুলি সন্ধানের সমতুল্য, পূর্বে শূন্য-স্বতন্ত্র গাউসিয়ান ওজন সহ
প্রমাণ:
উপরে বর্ণিত হিসাবে ক্ষতি ফাংশন দ্বারা দেওয়া হবে
নোট করুন যে মাল্টিভারিয়েট গাউসির বিতরণটি হ'ল
বেয়েস রুল ব্যবহার করে আমাদের তা আছে
যেখানে আমরা বহু-মাত্রিক গুসিয়ানকে একটি প্রোডাক্টে বিভক্ত করতে সক্ষম হয়েছি, কারণ সমবায়ু পরিচয় ম্যাট্রিক্সের একাধিক।
নেতিবাচক লগ সম্ভাবনা নিন
আমরা অবশ্যই ধ্রুবকটি ড্রপ করতে পারি এবং ক্ষতির ক্রিয়াকলাপটিকে মৌলিকভাবে প্রভাবিত না করে কোনও পরিমাণে গুণতে পারি। (ধ্রুবক কিছুই করে না, গুণগুলি কার্যকরভাবে শিক্ষার হারকে মাপায়। মিনিমার অবস্থানকে প্রভাবিত করবে না) সুতরাং আমরা দেখতে পাচ্ছি যে উত্তরোত্তর বিতরণের নেতিবাচক লগ সম্ভাবনাটি L2 নিয়মিত স্কোয়ার ত্রুটি ক্ষতি ফাংশনের সমতূল্য ক্ষতির কাজ।
এই ইক্যুইভ্যালেন্সটি সাধারণ এবং ওজনগুলির যে কোনও প্যারামিটারাইজড ফাংশনের জন্য ধারণ করে - উপরে বর্ণিত বলে মনে হয় কেবল লিনিয়ার রিগ্রেশন নয়।
বায়সিয়ান মডেলিংয়ের দুটি বৈশিষ্ট্য রয়েছে যেগুলিকে জোর দেওয়া দরকার, যখন নির্দিষ্ট শাস্তিযুক্ত সর্বাধিক সম্ভাবনার প্রাক্কলন এবং বায়সিয়ান পদ্ধতিগুলির সমতা নিয়ে আলোচনা করা হয়।
D dimension
রৈখিক রিগ্রেশনের মামলা, করতেbeta
এবংsigma
স্পষ্ট সমাধান আছে? আমি পিআরএমএল পড়ছি, এবং পৃষ্ঠা 30 এ সমীকরণ (1.67) খুঁজে পাচ্ছি এবং কীভাবে এটি সমাধান করবেন সে সম্পর্কে কোনও ধারণা নেই। সর্বাধিক সম্ভাবনায়, আমরা সমাধান করিbeta
এবং তারপরেsigma
গ্রেডিয়েন্টটি শূন্যে সেট করে। নিয়মিতভাবে সর্বনিম্ন স্কোয়ারে, যেহেতু প্রয়োজনীয়করণের পরম কিছুlambda
জানা যায়, আমরাbeta
সরাসরি সমাধান করি । কিন্তু যদি আমরা সরাসরি মানচিত্র সমাধান, কি সমাধানে ক্রম এরbeta
,sigma
? তাদের স্পষ্ট সমাধান থাকতে পারে বা আমাদের অবশ্যই পুনরাবৃত্তি প্রক্রিয়াটি ব্যবহার করতে পারি?