উত্তর:
সরল ইংরেজিতে: যদি আপনার শ্রেণিবদ্ধকারী কিছু ডেটা ভুল করে দেয় তবে এর অন্য একটি অনুলিপিটি মূলত এই ভুল শ্রেণিভুক্ত অংশে প্রশিক্ষণের মাধ্যমে আশা করুন যে এটি সূক্ষ্ম কিছু আবিষ্কার করবে। এবং তারপরে যথারীতি পুনরাবৃত্তি করুন। পথে কিছু ভোটিং স্কিম রয়েছে যা সেই সমস্ত শ্রেণিবদ্ধদের ভবিষ্যদ্বাণীগুলি বুদ্ধিমান উপায়ে একত্রিত করতে দেয়।
কারণ কখনও কখনও এটি অসম্ভব (শব্দটি কেবল কিছু তথ্য গোপন করে, বা এটি ডেটাতেও উপস্থিত হয় না); অন্যদিকে, অত্যধিক পরিমাণে বাড়াতে ওভারফিট করতে পারে।
বুস্টিং লার্নিং রেট প্যারামিটারের মাধ্যমে সংকোচনের কর্মসংস্থান করে, যা কে- ফোল্ড ক্রস বৈধকরণের সাথে, "আউট-অফ-ব্যাগ" (ওওবি) পূর্বাভাস বা স্বতন্ত্র পরীক্ষার সেট দিয়ে জড়ো করা উচিত যে গাছগুলির সংখ্যা বাছাই করা উচিত।
আমরা এমন একটি মডেল চাই যা ধীরে ধীরে শিখতে পারে, তাই প্রতিটি স্বতন্ত্র মডেলের জটিলতা এবং অন্তর্ভুক্ত করার জন্য মডেলগুলির সংখ্যার দিক থেকে একটি বাণিজ্য বন্ধ রয়েছে। আমি যে গাইডেন্স দেখেছি তার থেকে বোঝা যায় যে আপনার পড়াশোনার হার যতটা সম্ভব সম্ভব কম করা উচিত (গণনার সময় এবং স্টোরেজ স্পেসের প্রয়োজনীয়তা দেওয়া হয়েছে), তবে প্রতিটি গাছের জটিলতা ইন্টারঅ্যাকশন অনুমোদিত কিনা এবং কোন ডিগ্রীতে, তার ভিত্তিতে নির্বাচন করা উচিত, গাছ যত জটিল, প্রতিনিধিত্ব করা যেতে পারে যে মিথস্ক্রিয়া আরও জটিল।
শিক্ষার হার সীমার মধ্যে বেছে নেওয়া হয় । ছোট মান () পছন্দ। এটি প্রতিটি গাছের জন্য লাগানো মানগুলিতে প্রতিটি মডেলের অবদানের ওজন হ্রাস করার জন্য প্রয়োগ করা হয় ing
কে -ফোল্ড সিভি (বা ওওবি পূর্বাভাস বা স্বতন্ত্র পরীক্ষার সেট) কখন বুস্টেড মডেলটি অতিরিক্ত উপস্থাপনা শুরু করেছে তা নির্ধারণের জন্য ব্যবহৃত হয়। মূলত এটি হ'ল আমাদের নিখুঁত মডেলটির উত্সাহ দেওয়া বন্ধ করে, তবে ধীরে ধীরে শেখা ভাল তবে আমাদের লাগানো মডেলটিতে অবদান রাখার মডেলগুলির একটি বৃহত পরিবেশন রয়েছে।