উত্তর:
পিছনের বংশবিস্তার অ্যালগরিদম একটি নিউরাল নেটওয়ার্ক মডেল ফিট করার জন্য গ্রেডিয়েন্ট বংশদ্ভুত অ্যালগরিদম। (@ ডিক্রান দ্বারা উল্লিখিত হিসাবে) আমাকে কীভাবে তা ব্যাখ্যা করতে দিন।
আনুষ্ঠানিকভাবে: নীচের সমীকরণের মধ্যে এই পোস্টের শেষে গ্রেডিয়েন্টের গণনা ব্যবহার করে [1] নীচে (এটি গ্রেডিয়েন্ট বংশোদ্ভূত একটি সংজ্ঞা) একটি গ্রেডিয়েন্ট বংশোদ্ভূত ব্যবহারের একটি বিশেষ ক্ষেত্রে হিসাবে পিছনে বংশবৃদ্ধির অ্যালগরিদম দেয়।
একটি নিউরাল নেটওয়ার্ক মডেল আনুষ্ঠানিকভাবে, আমরা একটি সাধারণ একক স্তর মডেল দিয়ে ধারণাগুলি স্থির করি:
যেখানে g : R → R এবং s : R M → R M সমস্ত মি = 1 … , এম , এস ( এক্স ) এর সাথে পরিচিত [ মি ] = σ ( এক্স [ মি ] ) , এবং
আইডিয়াগুলি ঠিক করার জন্য একটি চতুর্ভুজিক ক্ষতি ফাংশন নেওয়া হয়। অত: পর ইনপুট এর ভেক্টর আর পি বাস্তব আউটপুট লাগানো যেতে পারে ( Y 1 , ... , Y এন ) এর আর : (ভেক্টর হতে পারে) গবেষণামূলক ক্ষতি কমানোর দ্বারা আর এন ( একটি 1 , A 2 ) = n ∑ i = 1 ( y i - f ( x)এ 1 এবং এ 2 এর পছন্দটি সম্পর্কিত।
গ্রেডিয়েন্ট বংশদ্ভুত একজন grandient বংশদ্ভুত কমানোর জন্য একটি আলগোরিদিম যে বারবার: একটি ঠ + + 1 = একটি ঠ - γ ঠ ∇ আর ( একটি ঠ ) , ঠ ≥ 0 ভাল মনোনীত পদক্ষেপ মাপ জন্য ( γ ঠ ) ঠ (নামেও শেখার হার পিছনে প্রচারের কাঠামোতে)। এটি আর এর গ্রেডিয়েন্টের গণনা প্রয়োজন। বিবেচিত ক্ষেত্রে a l = ( A 1 l , A 2)
ব্যাক-প্রোগোশনটি ওজনের ক্ষেত্রে ত্রুটি ফাংশনের ডাইরিভেটিভকে কাজ করার একটি উপায়, যাতে মডেলটি গ্রেডিয়েন্ট বংশোদ্ভূত অপ্টিমাইজেশন পদ্ধতিগুলি দ্বারা প্রশিক্ষিত হতে পারে - এটি মূলত কেবল "চেইন রুল" এর প্রয়োগ। এটির চেয়ে আসলে এর থেকে বেশি কিছুই নেই, সুতরাং আপনি যদি ক্যালকুলাস নিয়ে স্বাচ্ছন্দ্য বোধ করেন তবে এটি মূলত এটি দেখার সর্বোত্তম উপায়।
আপনি যদি ক্যালকুলাসের সাথে স্বাচ্ছন্দ্য বোধ করেন না তবে একটি আরও ভাল উপায় হ'ল আমরা জানি আউটপুট ইউনিটগুলি কতটা খারাপভাবে করছে তা আমাদের জানাচ্ছে কারণ প্রকৃত আউটপুটটির সাথে তুলনা করার জন্য আমাদের একটি কাঙ্ক্ষিত আউটপুট রয়েছে। তবে লুকানো ইউনিটগুলির জন্য আমাদের পছন্দসই আউটপুট নেই, তাই আমরা কী করব? ব্যাক-প্রসারণের নিয়মটি আউটপুট ইউনিটগুলির ত্রুটির জন্য আড়াল ইউনিটগুলিতে দোষ চাপিয়ে দেওয়ার মূলত একটি উপায়। কোনও নির্দিষ্ট আউটপুট ইউনিটে কোনও লুকানো ইউনিট যত বেশি প্রভাব ফেলবে তত ত্রুটির জন্য তত বেশি দোষ দেয়। কোনও গোপন ইউনিটের সাথে যুক্ত মোট দোষ তারপরে ইনপুট থেকে লুকানো স্তরের ওজনকে কত পরিবর্তন করতে হবে তার একটি ইঙ্গিত দেয়। যে দুটি জিনিস কতটা দোষ ফিরিয়ে দেওয়া হয়েছে তা পরিচালনা করে হ'ল লুকানো এবং আউটপুট স্তরের ওজনকে স্পষ্টভাবে সংযুক্ত করে ওজন (স্পষ্টতই) এবং লুকানো ইউনিটের আউটপুট (যদি এটি ফিসফিসিংয়ের চেয়ে চেঁচিয়ে উঠছে তবে এর আরও বেশি প্রভাব পড়তে পারে)। বাকিটি হ'ল গাণিতিক ছদ্মবেশ যা সেই অন্তর্দৃষ্টিটিকে প্রশিক্ষণের মানদণ্ডের ডেরাইভেটিভে পরিণত করে।
আমি একটি সঠিক উত্তরের জন্য বিশপস বইয়েরও সুপারিশ করতাম! ; O)
এটি ফিডফোরওয়ার্ড মাল্টিলেয়ার নিউরাল নেটওয়ার্কগুলি (মাল্টিলেয়ার পারসেপ্ট্রন) প্রশিক্ষণের জন্য একটি অ্যালগরিদম। ওয়েবের চারপাশে বেশ কয়েকটি দুর্দান্ত জাভা অ্যাপলেট রয়েছে যা এটির মতো চিত্রিত করে: http://neuron.eng.wayne.edu/bpFunctionApprox/bpFunctionApprox.html । এছাড়াও, এনএনএস- এ বিশপের বইটি এনএনএস-এর সাথে কিছু করার মানক ডেস্ক রেফারেন্স।