তবে আমরা যা চাই এটি তা নয়। আমি বোঝাতে চাইছি এটি বহুবিশ্বের সমস্যা থেকে আমাদের বাঁচায় তাই নয়।
হ্যাঁ! এবং না. ইলাস্টিক নেট হ'ল নিয়মিতকরণের দুটি কৌশল, এল 2 নিয়মিতকরণ (রিজ রিগ্রেশন ব্যবহৃত হয়) এবং এল 1 নিয়মিতকরণ (ল্যাসোতে ব্যবহৃত) এর সংমিশ্রণ।
লাসো প্রাকৃতিকভাবে বিরল মডেল উত্পাদন করে, অর্থাৎ বেশিরভাগ ভেরিয়েবল সহগকে 0-এ সঙ্কুচিত করা হবে এবং কার্যকরভাবে মডেল থেকে বাদ দেওয়া হবে। সুতরাং কমপক্ষে উল্লেখযোগ্য ভেরিয়েবলগুলি সঙ্কুচিত হয়ে যায়, অন্যগুলি সঙ্কুচিত করার আগে, রিজের মতো নয়, যেখানে সমস্ত ভেরিয়েবল সঙ্কুচিত হয়, তবে সেগুলির কোনওটিই 0 তে সঙ্কুচিত হয় না।
ইলাস্টিক নেট এই উভয় পদ্ধতির একটি লিনিয়ার সংমিশ্রণ ব্যবহার করে। পদ্ধতিটি নিয়ে আলোচনার সময় হাসটি যে নির্দিষ্ট ক্ষেত্রে উল্লেখ করেছিলেন তা বড় পি, ছোট এন এর ক্ষেত্রে হয়েছিল। যার অর্থ: তুলনামূলকভাবে কয়েকটি পর্যবেক্ষণ সহ উচ্চ মাত্রিক ডেটা। এই ক্ষেত্রে লাসো কেবলমাত্র সর্বদা n ভেরিয়েবল নির্বাচন করবে, বাকি সমস্তগুলি মুছে ফেলার সময়, হোস্টির কাগজটি দেখুন ।
এটি সর্বদা আসল ডেটাসেটের উপর নির্ভর করবে, তবে আপনি ভালভাবে ধারণা করতে পারেন যে আপনি সবসময় আপনার মডেলগুলির ভেরিয়েবলের সংখ্যার উপরের সীমাটি আপনার পর্যবেক্ষণের সংখ্যার চেয়ে সমান বা তার চেয়ে কম রাখতে চান না।