লাসোর রিগ্রেশন ধরুন সেরা সমাধান (উদাহরণস্বরূপ ন্যূনতম পরীক্ষার ত্রুটি) k বৈশিষ্ট্যগুলি নির্বাচন করে, যাতে \ টুপি {\ বিটা} ^ {লাসো} = \ বাম (\ টুপি \ a বিটা _1 _1 _1 {লাসো}, \ টুপি \ বিটা} _2 ^ ss লাসো}, ..., \ টুপি \ \ বিটা _ কে ^ {লাসো}, 0, ... 0 \ ডান) ।
আমরা জানি যে একটি \ বাম (\ বিটা_1, \ বিটা_২, ..., \ বিটা_কে \ ডান) এর পক্ষপাতদুষ্ট অনুমান , তবে কেন আমরা আরও 'যুক্তিসঙ্গত' পরিবর্তে চূড়ান্ত সমাধান হিসাবে \ টুপি {\ বিটা {{লাসো take গ্রহণ করব ? , যেখানে আংশিক মডেল এল ^ {নতুন} (\ বিটা_ {1: কে}) = (এক্স_ {1: কে} \ বিটা-ওয়াই) '(X_ {1: কে) এর এলএস অনুমান \ \ বিটা-ওয়াই) । ( X_ {1: k কে নির্বাচিত বৈশিষ্ট্যের সাথে সম্পর্কিত X এর কলামগুলি বোঝায় )।
সংক্ষেপে, আমরা কেন কেবল ভেরিয়েবল নির্বাচনের জন্য (এবং বাছাই করা বৈশিষ্ট্যগুলিতে অনুমানটি ওএলএসে রেখে) পরিবর্তিত বৈশিষ্ট্য নির্বাচনের জন্য এবং পরামিতি অনুমানের জন্য লাসো উভয়ই ব্যবহার করব?
(এছাড়াও, এর অর্থ কী যে 'লাসো সর্বাধিক বৈশিষ্ট্যগুলি নির্বাচন করতে পারে '? নমুনার আকার)