গ্রেডিয়েন্ট বংশবৃদ্ধি কীভাবে গ্রেডিয়েন্ট বংশোদ্ভূত?


9

আমি গ্রেডিয়েন্ট বুস্টিং ( https://en.wikedia.org/wiki/Gradient_boosting ) এ দরকারী উইকিপিডিয়া এন্ট্রি পড়ছি , এবং কীভাবে / কেন আমরা খাড়া বংশোদ্ভূত পদক্ষেপ দ্বারা আনুমানিক আনতে পারি তা বোঝার চেষ্টা করছি (এটি ছদ্ম-গ্রেডিয়েন্টও বলা হয়) )। খাড়া বংশোদ্ভূত কীভাবে অবশিষ্টাংশের সাথে সংযুক্ত / অনুরূপ হয় সে সম্পর্কে কেউ আমাকে অন্তর্দৃষ্টি দিতে পারেন? সাহায্য অনেক প্রশংসা!

এখানে চিত্র বর্ণনা লিখুন

উত্তর:


11

ধরা যাক আমরা নিম্নলিখিত পরিস্থিতিতে আছি। আমরা কিছু তথ্য আছে , যেখানে প্রতিটি একটি সংখ্যা বা ভেক্টর হতে পারে, এবং আমরা একটি ফাংশন নির্ধারণ চাই যে পরিমাপক সম্পর্ক অর্থে যে লিস্ট স্কোয়ার ত্রুটি:{xi,yi}xiff(xi)yi

12i(yif(xi))2

ছোট.

এখন, প্রশ্নটি কী প্রবেশ করে আমরা এর ডোমেনটি চাই । ডোমেনের জন্য অধঃপতিত হওয়া পছন্দটি আমাদের প্রশিক্ষণের ডেটাগুলির মাত্র পয়েন্ট। এই ক্ষেত্রে, আমরা কেবলমাত্র নির্ধারণ করতে পারি , সম্পূর্ণ পছন্দসই ডোমেনটি covering রেখে এটি সম্পন্ন করে। এই উত্তরটি পৌঁছানোর প্রায় এক রাস্তা হ'ল ডোমেন হিসাবে এই পৃথক স্থানের সাথে গ্রেডিয়েন্ট বংশোদ্ভূত করা। দৃষ্টিকোণে এটি কিছুটা পরিবর্তন নেয়। আসুন বিন্দু হিসাবে সত্য হিসাবে এবং পূর্বাভাস হিসাবে দেখি (মুহুর্তের জন্য, কোনও ফাংশন নয়, তবে কেবল ভবিষ্যদ্বাণীটির মান)ff(xi)=yy ff

L(f;y)=12(yf)2

এবং তারপরে ভবিষ্যদ্বাণীটির প্রতি শ্রদ্ধা সহ গ্রেডিয়েন্টটি নিন

fL(f;y)=fy

তারপর গ্রেডিয়েন্ট আপডেট, একটি প্রাথমিক মান থেকে শুরু হয়y0

y1=y0f(y0,y)=y0(y0y)=y

সুতরাং আমরা এই সেটআপটি সহ গ্রেডিয়েন্ট ধাপে আমাদের নিখুঁত পূর্বাভাসটি পুনরুদ্ধার করি, যা দুর্দান্ত!

ত্রুটি এখানে অবশ্যই, হয়, যে আমরা চাই শুধু আমাদের প্রশিক্ষণ ডাটা পয়েন্টের চেয়ে অনেক বেশী এ সংজ্ঞায়িত করা। এটি করার জন্য, আমাদের অবশ্যই কিছু ছাড় দিতে হবে, কারণ আমরা আমাদের প্রশিক্ষণের ডেটা সেট ব্যতীত অন্য কোনও পয়েন্টে লোকসান ফাংশন বা এর গ্রেডিয়েন্ট মূল্যায়ন করতে পারছি না। f

বড় ধারণাটি হ'ল দুর্বলভাবে প্রায় । L

Start এ প্রাথমিক অনুমান সহ প্রায় সর্বদা একটি সাধারণ ধ্রুবক ফাংশন , এটি সর্বত্র সংজ্ঞায়িত। প্রশিক্ষণের ডেটাতে ক্ষতির ফাংশনের গ্রেডিয়েন্টটি মূল্যায়ন করে, প্রাথমিক অনুমান ব্যবহার করে এখন একটি নতুন কার্যকারী ডেটাসেট তৈরি করুন :ff(x)=f0f

W={xi,f0y}

Now approximate Lweak দুর্বল শিক্ষার্থীদের ফিট করে । বলুন আমরা আনুমানিক পাব । আমরা ছোট ডোমেনার মাপসই হওয়ার কারণে প্রশিক্ষণ পয়েন্টগুলিতে যথার্থতা হারিয়ে ফেলেছি, তবুও আমরা আকারে পুরো ডোমেন জুড়ে ডেটা এক্সটেনশন অর্জন করেছি।WFLWF(X)

Finally, সম্পূর্ণ ডোমেনের উপরে গ্রেডিয়েন্ট আপডেটে এর জায়গায় ব্যবহার করুন :FLf0

f1(x)=f0(x)F(x)

আমরা বের , একটি নতুন পড়তা চেয়ে একটু ভাল । দিয়ে শুরু করুন এবং সন্তুষ্ট হওয়া পর্যন্ত পুনরাবৃত্তি করুন।f1ff0f1

আশা করি, আপনি দেখতে পাচ্ছেন যে যা সত্যই গুরুত্বপূর্ণ তা হ'ল ক্ষতির গ্রেডিয়েন্টের সমীকরণ করা। সর্বনিম্ন স্কোয়ার মিনিমাইজেশনের ক্ষেত্রে এটি কাঁচা অবশিষ্টাংশের রূপ নেয়, তবে আরও পরিশীলিত ক্ষেত্রে এটি হয় না। যন্ত্রপাতি এখনও প্রয়োগ হয়। যতক্ষণ না প্রশিক্ষণের ডেটাতে লোকসান এবং ক্ষতির গ্রেডিয়েন্ট গণনা করার জন্য কেউ অ্যালগরিদম তৈরি করতে পারে ততক্ষণ আমরা এই অ্যালগরিদমটিকে ক্ষয়কে হ্রাস করে আনুমানিক কোনও ফাংশনটি ব্যবহার করতে পারি।


ইয়াহ, আমি মনে করি এটি বেশ ভাল। কেবলমাত্র লক্ষণীয় বিষয় আপনি যদি উদাহরণস্বরূপ, দ্বিপদী লোকসান হ্রাস করতে বাড়াতে চান তবে আমরা যে গ্রেডিয়েন্টটি প্রসারিত করব তা আর নেই একটি প্রাকৃতিক উপায়ে অবশিষ্টাংশ সম্পর্কিত।
iyilog(pi)+(1yi)log(1pi)
ম্যাথু ড্রুরি

ধন্যবাদ ম্যাথিউ আমার মাথা ঘুরিয়ে দেওয়ার জন্য আমি চেষ্টা করছি। সাহিত্যে প্রায়শই বলা হয় যে মডেল আপডেটটি হ'ল ফ (এম + 1) = এফ (এম) + , যেখানে এইচ (এম) দুর্বল শিক্ষার্থী। যদি আমি গাছ ভিত্তিক মডেলটির কথা ভাবছি - এর অর্থ কি এই যে প্রতিরোধ এবং শ্রেণিবিন্যাস উভয়ের জন্যই আমরা দুটি মডেলের ফলাফলের সহজ সংযোজন করে কোনও প্রদত্ত ডেটাপয়েন্টের জন্য আমাদের ভবিষ্যদ্বাণীটি কার্যত ব্যবহারিকভাবে আপডেট করি? আমরা যদি বাইনারিটিকে শ্রেণিবদ্ধ করার চেষ্টা করি তবে তা কি কাজ করে? বা + চিহ্নটি এত আক্ষরিকভাবে ব্যাখ্যা করা উচিত নয়? αmh(m)
ওয়াউটার 17

প্লাস চিহ্নটি বেশ আক্ষরিক। তবে গাছ ভিত্তিক দুর্বল শিখার জন্য, মডেল পূর্বাভাসগুলি পাতার ওজনযুক্ত গড় হিসাবে ব্যাখ্যা করা উচিত, এমনকি এমন ক্ষেত্রে যেখানে গাছ দ্বিপদী তথ্যের সাথে খাপ খায়। তবে খেয়াল করুন, উত্সাহ দেওয়ার ক্ষেত্রে আমরা সাধারণত দ্বিপদী তথ্যের সাথে মানানসই নয়, আমরা পূর্বের পর্যায়ে পূর্বাভাসের সাথে মূল্যায়নের সম্ভাবনার গ্রেডিয়েন্টের সাথে মানিয়ে যাচ্ছি, যার মূল্য হবে না । 0,1
ম্যাথু ড্রুরি

1
@ ম্যাথেজড্রুরি আমি অনেক সাহিত্যে মনে করি, আমরা দিয়ে সরাসরি , তবে , যেখানে 0 থেকে 1 পর্যন্ত একটি শিক্ষার হার। f1f0F(x)f0αF(x)α
হাইতাও ডু

@ hxd1011 হ্যাঁ, এটি সম্পূর্ণরূপে সঠিক এবং গ্রেডিয়েন্ট সাফল্যের সাথে বৃদ্ধির জন্য গুরুত্বপূর্ণ।
ম্যাথিউ ড্র্যারি
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.