কিছু মেশিন লার্নিং অ্যালগরিদমে সাধারণ হিসাবে, বুস্টিং গাছের সংখ্যা সম্পর্কিত বায়াস-ভেরিয়েন্স ট্রেড-অফ সাপেক্ষে। আলগাভাবে বলতে গেলে, এই বাণিজ্য বন্ধ আপনাকে বলেছে যে: (i) দুর্বল মডেলগুলির উচ্চ পক্ষপাত এবং কম বৈকল্পিকতা থাকে: তারা প্রশিক্ষণ ডেটাসেটে পরিবর্তনশীলতা ক্যাপচার করতে খুব কঠোর হয়, সুতরাং পরীক্ষার সেটেও ভাল পারফরম্যান্স করবে না (উচ্চ পরীক্ষা) ত্রুটি) (ii) খুব শক্তিশালী মডেলগুলির মধ্যে কম পক্ষপাত এবং উচ্চতর বৈকল্পিকতা থাকে: এগুলি খুব নমনীয় এবং তারা প্রশিক্ষণ সেটকে বেশি মানায়, তাই পরীক্ষার সেটে (যেমন ডেটাপয়েন্টগুলি প্রশিক্ষণের সেট থেকে আলাদা) তারাও ভাল পারফর্ম করবে না (উচ্চ পরীক্ষার ত্রুটি)
গাছ বুস্ট করার ধারণাটি অগভীর গাছ (দুর্বল মডেল) দিয়ে শুরু করা এবং আরও অগভীর গাছ যুক্ত করা যা পূর্ববর্তী গাছ দুর্বলতাগুলি সংশোধন করার চেষ্টা করে। আপনি যখন এই প্রক্রিয়াটি করেন, পরীক্ষার ত্রুটিটি নীচে যেতে থাকে (কারণ সামগ্রিক মডেল আরও নমনীয় / শক্তিশালী হয়)। তবে, আপনি যদি এই গাছগুলির মধ্যে অনেকগুলি যোগ করেন তবে আপনি প্রশিক্ষণের ডেটাকে উপভোগ করতে শুরু করেন এবং তাই পরীক্ষার ত্রুটি বৃদ্ধি পায়। ক্রস-বৈধকরণ মিষ্টি স্পট সন্ধানে সহায়তা করে