মোটামুটিভাবে বলতে গেলে ভবিষ্যদ্বাণী ত্রুটির তিনটি ভিন্ন উত্স রয়েছে:
- আপনার মডেল এর পক্ষপাতিত্ব
- আপনার মডেলের বৈকল্পিকতা
- অব্যক্ত বৈকল্পিকতা
আমরা পয়েন্ট 3 সম্পর্কে কিছুই করতে পারি না (অব্যক্ত বর্ণের ভিন্নতাটি অনুমান করার চেষ্টা করা এবং এটি আমাদের ভবিষ্যদ্বাণীীয় ঘনত্ব এবং ভবিষ্যদ্বাণী ব্যবস্থায় অন্তর্ভুক্ত করা) except এটি আমাদের 1 এবং 2 দিয়ে ছেড়ে যায়।
যদি আপনার কাছে আসলে "ডান" মডেল থাকে, তবে বলুন, ওএলএস প্যারামিটার অনুমানগুলি পক্ষপাতহীন হবে এবং সমস্ত পক্ষপাতহীন (লিনিয়ার) অনুমানকারীগুলির মধ্যে তারা ন্যূনতম বৈচিত্র্য রাখবে (তারা নীল)। ওএলএস মডেলের ভবিষ্যদ্বাণীগুলি সেরা রৈখিক নিরপেক্ষ ভবিষ্যদ্বাণী (বিএলইউপিএস) হবে। ভাল লাগছে।
তবে এটি প্রমাণিত হয়েছে যে যদিও আমাদের পক্ষপাতহীন ভবিষ্যদ্বাণী এবং সমস্ত পক্ষপাতহীন পূর্বাভাসের মধ্যে ন্যূনতম বৈচিত্র রয়েছে, তবুও তারতম্যটি বেশ বড় হতে পারে। আরও গুরুত্বপূর্ণ, আমরা মাঝে মাঝে "সামান্য" পক্ষপাতিত্ব পরিচয় করিয়ে দিতে পারি এবং একই সাথে "প্রচুর পরিমাণে" বৈকল্পিকতা সংরক্ষণ করতে পারি - এবং ঠিক ট্রেড অফ পেয়ে আমরা একটি পক্ষপাতদুষ্ট (নিম্নতম বৈকল্পিক) মডেলটির সাথে একটি পক্ষপাতহীন ( উচ্চতর বৈকল্পিক) এক। এটিকে "পক্ষপাত-বৈকল্পিক ট্রেড অফ" বলা হয় এবং এই প্রশ্ন এবং এর উত্তরগুলি আলোকিত করে: পক্ষপাতদুষ্ট অনুমানকারী কখন নিরপেক্ষ ব্যক্তির চেয়ে বেশি পছন্দ হয়?
এবং লাসো, রিজ রিগ্রেশন, ইলাস্টিক নেট এবং এর মতো নিয়মিতকরণ ঠিক তাই করে। তারা মডেলটিকে শূন্যের দিকে টানেন। (বায়েশিয়ান পদ্ধতিগুলি একই রকম - তারা মডেলগুলিকে প্রিরিয়ার দিকে টান দেয়)) সুতরাং, নিয়মিত মডেলগুলি নিয়মিত-অ-মডেলগুলির তুলনায় পক্ষপাতদুষ্ট হবে, তবে তারতম্যও কম হবে। আপনি যদি আপনার নিয়মিতকরণটি সঠিকভাবে চয়ন করেন তবে ফলাফলটি একটি ত্রুটিযুক্ত একটি ত্রুটিযুক্ত is
আপনি যদি "পক্ষপাত-বৈকল্পিক ট্রেড অফ নিয়ন্ত্রন" বা অনুরূপ অনুসন্ধান করেন তবে আপনি কিছু চিন্তাভাবনা পান। এই উপস্থাপনা, উদাহরণস্বরূপ, দরকারী।
সম্পাদনা: অ্যামিবা বেশ সঠিকভাবে উল্লেখ করেছে যে আমি হ্যান্ডওয়েভ করছি ঠিক কেন নিয়মিতকরণ মডেল এবং ভবিষ্যদ্বাণীগুলির কম বৈকল্পিকতা দেয় । একটি বড় নিয়মিতকরণ পরামিতি সহ একটি লাসো মডেল বিবেচনা করুন । যদি , আপনার লাসো প্যারামিটারের অনুমানগুলি সমস্ত সঙ্কুচিত হয়ে শূন্য হয়ে যাবে। শূন্যের একটি নির্দিষ্ট প্যারামিটার মানটির শূন্যতা রয়েছে। (এই সম্পূর্ণরূপে সঠিক নয় যেহেতু চৌকাঠ মান যা অতিক্রম আপনার পরামিতি শুন্যতে সঙ্কুচিত করা হবে আপনার ডেটা ও আপনার মডেল উপর নির্ভর করে। কিন্তু মডেল এবং তথ্য দেওয়া, আপনি একটি জানতে পারেনλλ→∞λλযেমন মডেল শূন্য মডেল। সর্বদা আপনার কোয়ানটিফায়ারগুলিকে সোজা রাখুন)) তবে, শূন্য মডেলের অবশ্যই একটি বিশাল পক্ষপাত থাকবে। এটি সর্বোপরি প্রকৃত পর্যবেক্ষণগুলি সম্পর্কে চিন্তা করে না।
এবং এটিই আপনার নিয়মিতকরণের পরামিতিগুলির সর্বনিম্ন-চূড়ান্ত মানগুলির ক্ষেত্রেও প্রযোজ্য: ছোট মানগুলি অনিয়ন্ত্রিত প্যারামিটার অনুমানের ফল দেবে, যা কম পক্ষপাতদুষ্ট হবে (যদি আপনার "সঠিক" মডেল থাকে তবে পক্ষপাতহীন) তবে উচ্চতর হবে ভ্যারিয়েন্স। আপনার প্রকৃত পর্যবেক্ষণগুলি অনুসরণ করে তারা "চারপাশে" লাফিয়ে উঠবে। আপনার নিয়মিতকরণের উচ্চতর মান আপনার প্যারামিটারের অনুমানকে আরও বেশি করে "সীমাবদ্ধ" করবে। এই কারণেই পদ্ধতিগুলিতে "লাসো" বা "ইলাস্টিক নেট" এর মতো নাম রয়েছে : তারা আপনার পরামিতিগুলির স্বাধীনতার চারপাশে ভাসতে এবং ডেটা অনুসরণ করতে বাধা দেয়।λ
(আমি এটি নিয়ে একটি ছোট্ট কাগজ লিখছি, যা আশাকরি বরং অ্যাক্সেসযোগ্য হবে once আমি একবার একটি লিঙ্ক এলে এটি যুক্ত করব))