প্রথমত, কিছু অ্যালগরিদম এমনকি শূন্য প্রাথমিক ওজন সহ একত্রিত হয়। একটি সাধারণ উদাহরণ একটি লিনিয়ার পারসেপ্ট্রন নেটওয়ার্ক। অবশ্যই, অনেকগুলি লার্নিং নেটওয়ার্কের এলোমেলো প্রাথমিক ওজন প্রয়োজন (যদিও এটি দ্রুত এবং সর্বোত্তম হওয়ার গ্যারান্টি নয় উত্তর )।
নিউরাল নেটওয়ার্কগুলি ওজন শিখতে এবং আপডেট করতে ব্যাক-প্রসারণ ব্যবহার করে এবং সমস্যাটি হ'ল এই পদ্ধতিতে ওজন স্থানীয় সর্বোত্তম (স্থানীয় সর্বনিম্ন ব্যয় / ক্ষতি) এ রূপান্তর করে , বৈশ্বিক অনুকূল নয়।
এলোমেলো ওজন নেটওয়ার্ক উপলব্ধ স্থানে প্রতিটি দিকের জন্য সম্ভাবনা নিতে এবং ধীরে ধীরে তাদের আরও ভাল উত্তরে পৌঁছাতে উন্নত করে এবং এক দিক বা উত্তরের মধ্যে সীমাবদ্ধ না থেকে সহায়তা করে ।
[নীচের চিত্রটি কীভাবে সংমিশ্রণের এক-মাত্রিক উদাহরণ দেখায়। প্রাথমিক অবস্থান দেওয়া, স্থানীয় অপ্টিমাইজেশন অর্জন করা হয়েছে তবে বৈশ্বিক অপ্টিমাইজেশন নয়। উচ্চ মাত্রায়, এলোমেলো ওজন সঠিক জায়গায় থাকার বা আরও ভাল শুরু করার সম্ভাবনা বাড়িয়ে তুলতে পারে, যার ফলে ওজনকে আরও ভাল মানের রূপান্তরিত করা যায় in] [1]
[1]: https://i.stack.imgur.com/2dioT.png [কালহোর, এ। (2020)। শ্রেণিবদ্ধকরণ এবং রিগ্রেশন এনএনএস বক্তৃতা।]
সহজতম ক্ষেত্রে, নতুন ওজন নিম্নরূপ:
W_new = W_old + D_loss
এখানে নতুন ওজন পেতে ব্যয় ফাংশন গ্রেডিয়েন্টটি পূর্বের ওজনের সাথে যুক্ত করা হয়েছে। পূর্ববর্তী সমস্ত ওজন যদি একই হয় তবে পরবর্তী ধাপে সমস্ত ওজন সমান হতে পারে। ফলস্বরূপ, এক্ষেত্রে জ্যামিতিক দৃষ্টিকোণ থেকে, নিউরাল নেটওয়ার্ক এক দিকে ঝুঁকছে এবং সমস্ত ওজন একই the তবে যদি ওজন আলাদা হয় তবে বিভিন্ন পরিমাণে ওজন আপডেট করা সম্ভব। (ফলাফলের প্রতিটি ওজনের যে প্রভাবের ফ্যাক্টর রয়েছে তার উপর নির্ভর করে এটি ব্যয় এবং ওজনের আপডেটগুলিকে প্রভাবিত করে So তাই প্রাথমিক এলোমেলো ওজনে একটি ছোট ত্রুটিও সমাধান করা যেতে পারে)।
এটি একটি খুব সাধারণ উদাহরণ, তবে এটি শেখার উপর এলোমেলো ওজন সূচনার প্রভাব দেখায়। এটি নিউরাল নেটওয়ার্কটিকে একপাশে না গিয়ে বিভিন্ন জায়গায় যেতে সক্ষম করে। ফলস্বরূপ, শেখার প্রক্রিয়াতে, এই জায়গাগুলির সেরাটিতে যান