ধরা যাক আমরা নিম্নলিখিত পরিস্থিতিতে আছি। আমরা কিছু তথ্য আছে , যেখানে প্রতিটি একটি সংখ্যা বা ভেক্টর হতে পারে, এবং আমরা একটি ফাংশন নির্ধারণ চাই যে পরিমাপক সম্পর্ক অর্থে যে লিস্ট স্কোয়ার ত্রুটি:{xi,yi}xiff(xi)≈yi
12∑i(yi−f(xi))2
ছোট.
এখন, প্রশ্নটি কী প্রবেশ করে আমরা এর ডোমেনটি চাই । ডোমেনের জন্য অধঃপতিত হওয়া পছন্দটি আমাদের প্রশিক্ষণের ডেটাগুলির মাত্র পয়েন্ট। এই ক্ষেত্রে, আমরা কেবলমাত্র নির্ধারণ করতে পারি , সম্পূর্ণ পছন্দসই ডোমেনটি covering রেখে এটি সম্পন্ন করে। এই উত্তরটি পৌঁছানোর প্রায় এক রাস্তা হ'ল ডোমেন হিসাবে এই পৃথক স্থানের সাথে গ্রেডিয়েন্ট বংশোদ্ভূত করা। দৃষ্টিকোণে এটি কিছুটা পরিবর্তন নেয়। আসুন বিন্দু হিসাবে সত্য হিসাবে এবং পূর্বাভাস হিসাবে দেখি (মুহুর্তের জন্য, কোনও ফাংশন নয়, তবে কেবল ভবিষ্যদ্বাণীটির মান)ff(xi)=yy ff
L(f;y)=12(y−f)2
এবং তারপরে ভবিষ্যদ্বাণীটির প্রতি শ্রদ্ধা সহ গ্রেডিয়েন্টটি নিন
∇fL(f;y)=f−y
তারপর গ্রেডিয়েন্ট আপডেট, একটি প্রাথমিক মান থেকে শুরু হয়y0
y1=y0−∇f(y0,y)=y0−(y0−y)=y
সুতরাং আমরা এই সেটআপটি সহ গ্রেডিয়েন্ট ধাপে আমাদের নিখুঁত পূর্বাভাসটি পুনরুদ্ধার করি, যা দুর্দান্ত!
ত্রুটি এখানে অবশ্যই, হয়, যে আমরা চাই শুধু আমাদের প্রশিক্ষণ ডাটা পয়েন্টের চেয়ে অনেক বেশী এ সংজ্ঞায়িত করা। এটি করার জন্য, আমাদের অবশ্যই কিছু ছাড় দিতে হবে, কারণ আমরা আমাদের প্রশিক্ষণের ডেটা সেট ব্যতীত অন্য কোনও পয়েন্টে লোকসান ফাংশন বা এর গ্রেডিয়েন্ট মূল্যায়ন করতে পারছি না। f
বড় ধারণাটি হ'ল দুর্বলভাবে প্রায় । ∇L
Start
এ প্রাথমিক অনুমান সহ প্রায় সর্বদা একটি সাধারণ ধ্রুবক ফাংশন , এটি সর্বত্র সংজ্ঞায়িত। প্রশিক্ষণের ডেটাতে ক্ষতির ফাংশনের গ্রেডিয়েন্টটি মূল্যায়ন করে, প্রাথমিক অনুমান ব্যবহার করে এখন একটি নতুন কার্যকারী ডেটাসেট তৈরি করুন :ff(x)=f0f
W={xi,f0−y}
Now approximate
∇Lweak দুর্বল শিক্ষার্থীদের ফিট করে । বলুন আমরা আনুমানিক পাব । আমরা ছোট ডোমেনার মাপসই হওয়ার কারণে প্রশিক্ষণ পয়েন্টগুলিতে যথার্থতা হারিয়ে ফেলেছি, তবুও আমরা আকারে পুরো ডোমেন জুড়ে ডেটা এক্সটেনশন অর্জন করেছি।WF≈∇LWF(X)
Finally
, সম্পূর্ণ ডোমেনের উপরে গ্রেডিয়েন্ট আপডেটে এর জায়গায় ব্যবহার করুন :F∇Lf0
f1(x)=f0(x)−F(x)
আমরা বের , একটি নতুন পড়তা চেয়ে একটু ভাল । দিয়ে শুরু করুন এবং সন্তুষ্ট হওয়া পর্যন্ত পুনরাবৃত্তি করুন।f1ff0f1
আশা করি, আপনি দেখতে পাচ্ছেন যে যা সত্যই গুরুত্বপূর্ণ তা হ'ল ক্ষতির গ্রেডিয়েন্টের সমীকরণ করা। সর্বনিম্ন স্কোয়ার মিনিমাইজেশনের ক্ষেত্রে এটি কাঁচা অবশিষ্টাংশের রূপ নেয়, তবে আরও পরিশীলিত ক্ষেত্রে এটি হয় না। যন্ত্রপাতি এখনও প্রয়োগ হয়। যতক্ষণ না প্রশিক্ষণের ডেটাতে লোকসান এবং ক্ষতির গ্রেডিয়েন্ট গণনা করার জন্য কেউ অ্যালগরিদম তৈরি করতে পারে ততক্ষণ আমরা এই অ্যালগরিদমটিকে ক্ষয়কে হ্রাস করে আনুমানিক কোনও ফাংশনটি ব্যবহার করতে পারি।