পক্ষপাত এবং বৈকল্পিকতা হ্রাস করা যায় এমন অনেকগুলি উপায় রয়েছে এবং জনপ্রিয় বলার পরেও এটি সর্বদা ট্রেড অফ নয়।
জন্য দুটি প্রধান কারণে উচ্চ পক্ষপাত হয় অপর্যাপ্ত মডেল ধারণক্ষমতা এবং underfitting কারণ প্রশিক্ষণ ফেজ সম্পূর্ণ ছিল না। উদাহরণস্বরূপ, যদি আপনার সমাধান করতে খুব জটিল সমস্যা হয় (উদাহরণস্বরূপ চিত্রের স্বীকৃতি) এবং আপনি কম ক্ষমতার মডেল ব্যবহার করেন (উদাহরণস্বরূপ লিনিয়ার রিগ্রেশন) মডেলটির জটিলতা বুঝতে না পেরে এই মডেলটির উচ্চ পক্ষপাত হবে সমস্যাটি.
উচ্চতর বৈকল্পিকতার মূল কারণটি প্রশিক্ষণ সংস্থার চেয়ে বেশি মানানসই ।
বলা হচ্ছে যে কোনও এমএল মডেলের পক্ষপাত এবং বৈকল্পিকতা হ্রাস করার উপায় রয়েছে । উদাহরণস্বরূপ, এটি অর্জনের সবচেয়ে সহজ উপায়টি আরও ডেটা পাচ্ছেন (কিছু ক্ষেত্রে এমনকি সিন্থেটিক ডেটা সহায়তাও)।
অনুশীলনে আমরা যা করতে চাই তা হ'ল:
প্রথমত, আমরা যতটা সম্ভব প্রশিক্ষণের সেটের বৈচিত্রটি হ্রাস করার জন্য মডেলের সক্ষমতা বাড়িয়ে তুলি । অন্য কথায় আমরা মডেলকে ওভারফিট তৈরি করতে চাই (এমনকি প্রশিক্ষণের সেটটিতে 0 এর লোকসানও পৌঁছাতে পারে)। এটি করা হয়েছে কারণ আমরা নিশ্চিত করতে চাই যে মডেলটির যথেষ্ট পরিমাণে ডেটা বোঝার ক্ষমতা রয়েছে।
তারপরে আমরা পক্ষপাত হ্রাস করার চেষ্টা করি । এটি নিয়মিতকরণের মাধ্যমে করা হয় ( তাড়াতাড়ি থামানো , আদর্শ জরিমানা , ড্রপআউট ইত্যাদি)