কেউ দয়া করে ব্যাক-প্রসারণ অ্যালগরিদম ব্যাখ্যা করতে পারেন? [প্রতিলিপি]


13

ব্যাক-প্রসারণ অ্যালগরিদম কী এবং এটি কীভাবে কাজ করে?


1
কেউ আগ্রহী হলে আমি এখানে এই প্রশ্নের উত্তর একসাথে রেখেছি (আমি পুনরায় পোস্ট করতে চাইনি)।
ফিলিইডা

উত্তর:


14

পিছনের বংশবিস্তার অ্যালগরিদম একটি নিউরাল নেটওয়ার্ক মডেল ফিট করার জন্য গ্রেডিয়েন্ট বংশদ্ভুত অ্যালগরিদম। (@ ডিক্রান দ্বারা উল্লিখিত হিসাবে) আমাকে কীভাবে তা ব্যাখ্যা করতে দিন।

আনুষ্ঠানিকভাবে: নীচের সমীকরণের মধ্যে এই পোস্টের শেষে গ্রেডিয়েন্টের গণনা ব্যবহার করে [1] নীচে (এটি গ্রেডিয়েন্ট বংশোদ্ভূত একটি সংজ্ঞা) একটি গ্রেডিয়েন্ট বংশোদ্ভূত ব্যবহারের একটি বিশেষ ক্ষেত্রে হিসাবে পিছনে বংশবৃদ্ধির অ্যালগরিদম দেয়।

একটি নিউরাল নেটওয়ার্ক মডেল আনুষ্ঠানিকভাবে, আমরা একটি সাধারণ একক স্তর মডেল দিয়ে ধারণাগুলি স্থির করি:

যেখানে g : RR এবং s : R MR M সমস্ত মি = 1 , এম , এস ( এক্স ) এর সাথে পরিচিত [ মি ] = σ ( এক্স [ মি ] ) , এবং

f(x)=g(A1(s(A2(x))))
g:RRs:RMRMm=1,Ms(x)[m]=σ(x[m]) , A 2 R pR M অজানা অ্যাফাইন ফাংশন। ফাংশন σ : আরআর শ্রেণীবিন্যাস কাঠামোর মধ্যে সক্রিয়করণ ফাংশন বলা হয়।A1:RMRA2RpRMσ:RR

আইডিয়াগুলি ঠিক করার জন্য একটি চতুর্ভুজিক ক্ষতি ফাংশন নেওয়া হয়। অত: পর ইনপুট এর ভেক্টর আর পি বাস্তব আউটপুট লাগানো যেতে পারে ( Y 1 , ... , Y এন ) এর আর : (ভেক্টর হতে পারে) গবেষণামূলক ক্ষতি কমানোর দ্বারা আর এন ( একটি 1 , A 2 ) = n i = 1 ( y i - f ( x)(x1,,xn)Rp(y1,,yn)R1 এবং2 এর পছন্দটি সম্পর্কিত।

Rn(A1,A2)=i=1n(yif(xi))2[1]
A1A2

গ্রেডিয়েন্ট বংশদ্ভুত একজন grandient বংশদ্ভুত কমানোর জন্য একটি আলগোরিদিম যে বারবার: একটি + + 1 = একটি - γ আর ( একটি ) , 0 ভাল মনোনীত পদক্ষেপ মাপ জন্য ( γ ) (নামেও শেখার হার পিছনে প্রচারের কাঠামোতে)। এটি আর এর গ্রেডিয়েন্টের গণনা প্রয়োজন। বিবেচিত ক্ষেত্রে a l = ( A 1 l , A 2)R

al+1=alγlR(al), l0.
(γl)lRal=(Al1,Al2)

R1RRA12RRA2zi=A1(s(A2(xi)))

1R[1:M]=2×i=1nzig(zi)(yif(xi))
m=1,,M
2R[1:p,m]=2×i=1nxig(zi)zi[m]σ(A2(xi)[m])(yif(xi))

x[a:b]xab


11

ব্যাক-প্রোগোশনটি ওজনের ক্ষেত্রে ত্রুটি ফাংশনের ডাইরিভেটিভকে কাজ করার একটি উপায়, যাতে মডেলটি গ্রেডিয়েন্ট বংশোদ্ভূত অপ্টিমাইজেশন পদ্ধতিগুলি দ্বারা প্রশিক্ষিত হতে পারে - এটি মূলত কেবল "চেইন রুল" এর প্রয়োগ। এটির চেয়ে আসলে এর থেকে বেশি কিছুই নেই, সুতরাং আপনি যদি ক্যালকুলাস নিয়ে স্বাচ্ছন্দ্য বোধ করেন তবে এটি মূলত এটি দেখার সর্বোত্তম উপায়।

আপনি যদি ক্যালকুলাসের সাথে স্বাচ্ছন্দ্য বোধ করেন না তবে একটি আরও ভাল উপায় হ'ল আমরা জানি আউটপুট ইউনিটগুলি কতটা খারাপভাবে করছে তা আমাদের জানাচ্ছে কারণ প্রকৃত আউটপুটটির সাথে তুলনা করার জন্য আমাদের একটি কাঙ্ক্ষিত আউটপুট রয়েছে। তবে লুকানো ইউনিটগুলির জন্য আমাদের পছন্দসই আউটপুট নেই, তাই আমরা কী করব? ব্যাক-প্রসারণের নিয়মটি আউটপুট ইউনিটগুলির ত্রুটির জন্য আড়াল ইউনিটগুলিতে দোষ চাপিয়ে দেওয়ার মূলত একটি উপায়। কোনও নির্দিষ্ট আউটপুট ইউনিটে কোনও লুকানো ইউনিট যত বেশি প্রভাব ফেলবে তত ত্রুটির জন্য তত বেশি দোষ দেয়। কোনও গোপন ইউনিটের সাথে যুক্ত মোট দোষ তারপরে ইনপুট থেকে লুকানো স্তরের ওজনকে কত পরিবর্তন করতে হবে তার একটি ইঙ্গিত দেয়। যে দুটি জিনিস কতটা দোষ ফিরিয়ে দেওয়া হয়েছে তা পরিচালনা করে হ'ল লুকানো এবং আউটপুট স্তরের ওজনকে স্পষ্টভাবে সংযুক্ত করে ওজন (স্পষ্টতই) এবং লুকানো ইউনিটের আউটপুট (যদি এটি ফিসফিসিংয়ের চেয়ে চেঁচিয়ে উঠছে তবে এর আরও বেশি প্রভাব পড়তে পারে)। বাকিটি হ'ল গাণিতিক ছদ্মবেশ যা সেই অন্তর্দৃষ্টিটিকে প্রশিক্ষণের মানদণ্ডের ডেরাইভেটিভে পরিণত করে।

আমি একটি সঠিক উত্তরের জন্য বিশপস বইয়েরও সুপারিশ করতাম! ; O)


2

এটি ফিডফোরওয়ার্ড মাল্টিলেয়ার নিউরাল নেটওয়ার্কগুলি (মাল্টিলেয়ার পারসেপ্ট্রন) প্রশিক্ষণের জন্য একটি অ্যালগরিদম। ওয়েবের চারপাশে বেশ কয়েকটি দুর্দান্ত জাভা অ্যাপলেট রয়েছে যা এটির মতো চিত্রিত করে: http://neuron.eng.wayne.edu/bpFunctionApprox/bpFunctionApprox.html । এছাড়াও, এনএনএস-বিশপের বইটি এনএনএস-এর সাথে কিছু করার মানক ডেস্ক রেফারেন্স।


প্রশ্ন ও উত্তর আকারে উচ্চমানের পরিসংখ্যান সম্পর্কিত তথ্যের স্থায়ী সংগ্রহস্থল তৈরির চেষ্টা করার জন্য আমরা কেবলমাত্র লিঙ্কযুক্ত উত্তরগুলি এড়াতে চেষ্টা করি । আপনি যদি সক্ষম হন তবে আপনি কি লিঙ্কের তথ্যের সংক্ষিপ্তসার দিয়ে সম্ভবত এটি প্রসারিত করতে পারবেন?
গ্লেন_বি -রিনস্টেট মনিকা
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.