গ্রেডিয়েন্ট বুস্টিং ট্রি (জিবিএম) এবং অ্যাডাবোস্টের মধ্যে পার্থক্যের স্বজ্ঞাত ব্যাখ্যা


48

আমি জিবিএম এবং অ্যাডাবোস্টের মধ্যে পার্থক্য বোঝার চেষ্টা করছি।

এগুলি আমি এ পর্যন্ত বুঝতে পেরেছি:

  • উভয়ই বুস্টিং অ্যালগরিদম রয়েছে, যা পূর্ববর্তী মডেলের ত্রুটিগুলি থেকে শিক্ষা নেয় এবং শেষ পর্যন্ত মডেলগুলির একটি ভারিত যোগফল তৈরি করে।
  • জিবিএম এবং অ্যাডাবোস্টগুলি তাদের ক্ষতির কার্যকারিতা ব্যতীত বেশ সমান।

তবে এখনও তাদের মধ্যে পার্থক্যের ধারণাটি ধরা আমার পক্ষে কঠিন difficult কেউ আমাকে স্বজ্ঞাত ব্যাখ্যা দিতে পারেন?

উত্তর:


34

আমি পেয়েছি এই ভূমিকাটি কিছু স্বজ্ঞাত ব্যাখ্যা দিতে পারে।

  • গ্রেডিয়েন্ট বুস্টিংয়ে, 'স্বল্পতা' (বিদ্যমান দুর্বল শিখাদের) গ্রেডিয়েন্টগুলি দ্বারা চিহ্নিত করা হয় ।
  • অ্যাডাবোস্টে, 'স্বল্পতা' উচ্চ-ওজনের ডেটা পয়েন্ট দ্বারা চিহ্নিত করা হয় ।

আমার বোধগম্যভাবে, অ্যাডাবোস্টের ক্ষতিকারক ক্ষতিগুলি সেই সমস্ত নমুনাগুলির চেয়ে আরও খারাপ ওজন দেয় worse যাইহোক, অ্যাডাবোস্টকে ক্ষতির ক্রিয়াকলাপের ক্ষেত্রে গ্রেডিয়েন্ট বুস্টিংয়ের একটি বিশেষ কেস হিসাবে বিবেচনা করা হয়, যেমন প্রবর্তনে প্রদত্ত গ্রেডিয়েন্ট বুস্টিংয়ের ইতিহাসে দেখানো হয়েছে।

  1. অ্যাডাবোস্ট আবিষ্কার করুন, প্রথম সফল বুস্টিং অ্যালগরিদম [ফ্রেইন্ড এট আল।, 1996, ফ্রেন্ড এবং স্ক্যাপিয়ার, 1997]
  2. একটি বিশেষ ক্ষতির ক্রিয়াকলাপের সাথে অ্যাডাবোস্টকে গ্রেডিয়েন্ট বংশোদ্ভূত হিসাবে সূত্রবদ্ধ করুন [ব্রেইম্যান এট আল।, 1998, ব্রেইম্যান, 1999]
  3. বিভিন্ন ক্ষতির ফাংশন পরিচালনা করতে অ্যাডাবোস্টকে গ্রেডিয়েন্ট বুস্টিংকে সাধারণীকরণ করুন [ফ্রিডম্যান এট আল।, 2000, ফ্রেডম্যান, 2001]

11

অ্যাডাবুস্ট অ্যালগরিদনের একটি স্বজ্ঞাত ব্যাখ্যা

আমাকে নীচের পয়েন্টটির উদাহরণ দিয়ে @ র্যান্ডেলের দুর্দান্ত উত্তরটি তৈরি করতে দিন


  • অ্যাডাবোস্টে, 'স্বল্পতা' উচ্চ-ওজনের ডেটা পয়েন্ট দ্বারা চিহ্নিত করা হয়

অ্যাডাবুস্ট পুনর্নির্মাণ

যাক , দুর্বল ক্লাসিফায়ার ক্রম হতে আমাদের উদ্দেশ্য নিম্নলিখিত গড়ে তুলতে হল:Gm(x) m=1,2,...,M

G(x)=sign(α1G1(x)+α2G2(x)+...αMGM(x))=sign(m=1MαmGm(x))
  • চূড়ান্ত ভবিষ্যদ্বাণী হ'ল ওজনযুক্ত সংখ্যাগরিষ্ঠ ভোটের মাধ্যমে সমস্ত শ্রেণিবদ্ধদের কাছ থেকে ভবিষ্যদ্বাণীগুলির সংমিশ্রণ

  • কোফিসিয়েন্টস boosting আলগোরিদিম দ্বারা নির্ণিত, এবং প্রতিটি নিজ নিজ অবদান ওজন হয় । এর ক্রমটি আরও সঠিক শ্রেণিবদ্ধীদের উচ্চতর প্রভাব প্রদান করে।αmGm(x)

  • প্রতিটি উত্সাহিত পদক্ষেপে, প্রতিটি প্রশিক্ষণ পর্যবেক্ষণে ওজন প্রয়োগ করে ডেটা সংশোধন করা হয় । ধাপে যেসব পর্যবেক্ষণগুলি ভুলভাবে শ্রেণিবদ্ধ করা হয়েছিল তাদের ওজন বেড়েছেw1,w2,...,wNm
  • নোট করুন যে প্রথম ধাপে ওজন সমানভাবে শুরু করা হয়েছেm=1wi=1/N

খেলনা উদাহরণে অ্যাডাবোস্ট

খেলনা ডেটা সেটটি বিবেচনা করুন যার উপরে আমি নিম্নলিখিত সেটিংসের সাথে অ্যাডাবুস্ট প্রয়োগ করেছি: পুনরাবৃত্তির সংখ্যা , দুর্বল শ্রেণিবদ্ধ = গভীরতা 1 এবং 2 টি পাতার নোডের সিদ্ধান্ত গাছ। লাল এবং নীল ডেটা পয়েন্টগুলির মধ্যে সীমাটি স্পষ্টভাবে অ লৈখিক, তবুও অ্যালগরিদম বেশ ভাল করে।M=10

এখানে চিত্র বর্ণনা লিখুন

দুর্বল শিক্ষার্থীদের এবং নমুনা ওজনের ক্রমটি দৃশ্যমান izing

প্রথম 6 দুর্বল শিক্ষার্থী নীচে দেখানো হয়েছে। বিক্ষিপ্ত পয়েন্টগুলি প্রতিটি পুনরাবৃত্তিতে স্ব স্ব নমুনার ওজন অনুসারে মাপা হয়m=1,2...,6

এখানে চিত্র বর্ণনা লিখুন

প্রথম পুনরাবৃত্তি:

  • সিদ্ধান্ত সীমানা খুব সহজ (লিনিয়ার) যেহেতু এগুলি ওয়েয়া শিখার
  • সমস্ত পয়েন্ট প্রত্যাশার মতো একই আকারের
  • Blue টি নীল পয়েন্টগুলি লাল অঞ্চলে এবং ভুল শ্রেণিবদ্ধ হয়

দ্বিতীয় পুনরাবৃত্তি:

  • লিনিয়ার সিদ্ধান্তের সীমানা পরিবর্তন হয়েছে
  • পূর্বে ভুল বর্ণিত নীল পয়েন্টগুলি এখন বৃহত্তর (বৃহত্তর নমুনা_ ওজন) এবং সিদ্ধান্তের সীমানাকে প্রভাবিত করেছে
  • 9 টি নীল পয়েন্ট এখন ভুল শৃঙ্খলাবদ্ধ

10 পুনরাবৃত্তির পরে চূড়ান্ত ফলাফল

সমস্ত শ্রেণিবদ্ধের বিভিন্ন স্থানে লিনিয়ার সিদ্ধান্তের সীমানা থাকে। প্রথম 6 টি পুনরাবৃত্তির ফলাফল এর :αm

([1.041, 0.875, 0.837, 0.781, 1.04, 0.938 ...

যেমনটি প্রত্যাশা করা হয়েছিল, প্রথম পুনরাবৃত্তির বৃহত্তম সহগ রয়েছে কারণ এটি খুব কম সংখ্যক ভুল-শ্রেণিবদ্ধকরণ রয়েছে।

পরবর্তী পদক্ষেপ

গ্রেডিয়েন্ট বুস্টিংয়ের একটি স্বজ্ঞাত ব্যাখ্যা - সম্পূর্ণ করা

সূত্র এবং আরও পড়া:

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.