এই প্রশ্নটি খুব সুন্দর পোস্টটিতে সম্বোধন করা হয়েছে। দয়া করে এটি এবং এর উল্লেখগুলি একবার দেখুন। http://fastml.com/what-is-better-gradient-boosted-trees-or-random-forest/
নিবন্ধে লক্ষ্য করুন যে স্পষ্টত ক্যালিব্রেশন সম্পর্কে কথা বলে এবং অন্য একটি (সুন্দর) ব্লগ পোস্টে এটির লিঙ্ক। তবুও, আমি দেখতে পেয়েছি যে বুস্টিংয়ের কাছ থেকে ক্যালিব্রেটেড সম্ভাব্যতা অর্জনের কাগজটি আপনাকে উত্সাহিত শ্রেণিবদ্ধগুলির প্রসঙ্গে ক্যালিব্রেশন কী এবং এটি সম্পাদন করার মানক পদ্ধতিগুলি কী তা সম্পর্কে আরও ভাল ধারণা উপলব্ধ করা হয়।
এবং অবশেষে একটি দিক অনুপস্থিত (কিছুটা আরও তাত্ত্বিক)। আরএফ এবং জিবিএম উভয়ই জড়ো করার পদ্ধতি, যার অর্থ আপনি একটি বিশাল সংখ্যক ছোট শ্রেণিবদ্ধের তৈরি করে একটি শ্রেণিবদ্ধ তৈরি করেন। এখন মৌলিক পার্থক্য ব্যবহৃত পদ্ধতিতে নিহিত:
- আরএফ সিদ্ধান্ত গাছ ব্যবহার করে, যা অত্যধিক মানানসই প্রবণতা। উচ্চতর নির্ভুলতা অর্জনের জন্য, আরএফ ব্যাগিংয়ের উপর ভিত্তি করে এগুলির একটি বিশাল সংখ্যক তৈরি করার সিদ্ধান্ত নিয়েছে । মূল ধারণাটি হ'ল তথ্যকে বারবার পুনরায় নমুনা দেওয়া এবং প্রতিটি নমুনা প্রশিক্ষণের জন্য একটি নতুন শ্রেণিবদ্ধ। বিভিন্ন শ্রেণিবদ্ধকারীরা ডেটা আলাদা উপায়ে উপস্থাপন করে এবং ভোট দেওয়ার মাধ্যমে এই পার্থক্যগুলি গড়ে নেওয়া হয়।
- জিবিএম হ'ল একটি উত্সাহদান পদ্ধতি, যা দুর্বল শ্রেণিবদ্ধদের উপর ভিত্তি করে । ধারণাটি হ'ল একবারে একটি শ্রেণিবদ্ধকারী যুক্ত করা, যাতে পরবর্তী শ্রেণিবদ্ধকারী ইতিমধ্যে প্রশিক্ষণপ্রাপ্ত ছাঁটাই উন্নত করার জন্য প্রশিক্ষিত হয়। লক্ষ্য করুন যে আরএফের প্রতিটি পুনরাবৃত্তির জন্য শ্রেণিবদ্ধকারী বাকী থেকে স্বতন্ত্র প্রশিক্ষিত হয়।