প্রশ্ন ট্যাগ «gradient-descent»

গ্রেডিয়েন্ট বংশদ্ভুত হ'ল প্রথম অর্ডার পুনরাবৃত্তিমূলক অপ্টিমাইজেশন অ্যালগরিদম। গ্রেডিয়েন্ট বংশদ্ভুত ব্যবহার করে কোনও ফাংশনের স্থানীয় ন্যূনতম সন্ধান করতে, কেউ বর্তমান বিন্দুতে ফাংশনের গ্রেডিয়েন্টের (বা আনুমানিক গ্রেডিয়েন্টের) সমানুপাতিক পদক্ষেপ গ্রহণ করে। স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত হওয়ার জন্য [এসজিডি] ট্যাগও রয়েছে।

8
কেন নিউটনের পদ্ধতিটি মেশিন লার্নিংয়ে ব্যাপকভাবে ব্যবহৃত হয় না?
এটি এমন একটি বিষয় যা আমাকে কিছুক্ষণের জন্য ত্রুটিযুক্ত করে চলেছে এবং আমি অনলাইনে কোনও সন্তোষজনক উত্তর খুঁজে পেলাম না, তাই এখানে যায়: উত্তল অপ্টিমাইজেশনের উপর বক্তৃতার একটি সেট পর্যালোচনা করার পরে, নিউটনের পদ্ধতিটি বিশ্বব্যাপী অনুকূল সমাধানগুলি অনুসন্ধানের জন্য গ্রেডিয়েন্ট বংশোদ্ভূত চেয়ে অনেক উচ্চতর অ্যালগরিদম বলে মনে হচ্ছে, কারণ নিউটনের …

3
ব্যাচ গ্রেডিয়েন্ট বংশোদ্ভূত বনাম স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত
ধরা যাক , আই = 1 , … , এম এর জন্য আমাদের কিছু প্রশিক্ষণ সেট ( এক্স( আমি ), y( আমি ))(এক্স(আমি),Y(আমি))(x_{(i)}, y_{(i)}) । এছাড়াও ধরুন যে আমরা প্রশিক্ষণের সেটটিতে কিছু ধরণের তদারকি করা শেখার অ্যালগরিদম চালাই। অনুমানগুলি h θ ( x ( i ) ) = θ 0 …

6
রৈখিক প্রতিরোধের জন্য গ্রেডিয়েন্ট বংশোদ্ভূত কেন ব্যবহার করবেন, যখন কোনও ক্লোজড-ফর্ম গণিতের সমাধান পাওয়া যায়?
আমি মেশিন লার্নিং কোর্সগুলি অনলাইনে নিচ্ছি এবং অনুমানের অনুকূল মান গণনা করার জন্য গ্রেডিয়েন্ট বংশোদ্ভূত সম্পর্কে শিখেছি। h(x) = B0 + B1X নীচের সূত্রের সাহায্যে যদি আমরা সহজেই মানগুলি খুঁজে পেতে পারি তবে কেন আমাদের গ্রেডিয়েন্ট বংশদ্ভুত ব্যবহার করতে হবে? এটি সরাসরি এগিয়ে এবং সহজ দেখায়। তবে মান পেতে জিডির …

2
বন্ধ-ফর্ম বনাম গ্রেডিয়েন্ট বংশোদ্ভূত মধ্যে রিগ্রেশন পরামিতিগুলির জন্য সমাধান
অ্যান্ড্রু এনগের মেশিন লার্নিং কোর্সে তিনি লিনিয়ার রিগ্রেশন এবং লজিস্টিক রিগ্রেশন প্রবর্তন করেছেন এবং গ্রেডিয়েন্ট বংশোদ্ভূত এবং নিউটনের পদ্ধতি ব্যবহার করে মডেল পরামিতিগুলি কীভাবে ফিট করবেন তা দেখায়। আমি জানি যে গ্রেডিয়েন্ট বংশোদ্ভূত মেশিন লার্নিংয়ের কয়েকটি অ্যাপ্লিকেশনগুলিতে (যেমন, ব্যাকপ্রোপেশন) দরকারী হতে পারে, তবে আরও সাধারণ ক্ষেত্রে আপনি বদ্ধ আকারে প্যারামিটারগুলির …

3
নিউরাল নেটওয়ার্ক গবেষকরা কেন যুগের বিষয়ে যত্নশীল হন?
স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত একটি যুগকে ডেটাগুলির মাধ্যমে একক পাস হিসাবে সংজ্ঞায়িত করা হয়। প্রতিটি এসজিডি মিনিবাসের জন্য, kkk নমুনাগুলি আঁকা হয়, গ্রেডিয়েন্ট গণনা করা হয় এবং পরামিতি আপডেট করা হয়। যুগের সেটিংয়ে, নমুনাগুলি প্রতিস্থাপন ছাড়াই আঁকা হয়। তবে এটি অপ্রয়োজনীয় বলে মনে হচ্ছে। প্রতিটি পুনরুক্তিতে সম্পূর্ণ ডেটা সেট থেকে kkk …

7
অনুকূল কার্যকারিতা মূল্য নির্ধারণ করতে যখন ধীর গতি কমায়
গ্রেডিয়েন্ট বংশদ্ভুত এবং অন্যান্য অনেকগুলি পদ্ধতি ব্যয় কার্যক্রমে স্থানীয় মিনিমা সন্ধানের জন্য দরকারী। তারা কার্যকর হতে পারে যখন প্রতিটি বিন্দুতে ব্যয় কার্যকারিতা দ্রুত মূল্যায়ন করা যায়, সংখ্যাসূচক বা বিশ্লেষণাত্মক হোক না কেন। আমার কাছে যা অস্বাভাবিক পরিস্থিতি বলে মনে হয় তা আমার কাছে রয়েছে। আমার ব্যয় ক্রিয়াকলাপের প্রতিটি মূল্যায়ন ব্যয়বহুল। …

6
ক্ষতিকারক ক্ষয় সহ অ্যাডাম অপ্টিমাইজার
বেশিরভাগ টেনসরফ্লো কোডে আমি দেখেছি অ্যাডাম অপ্টিমাইজারটি ধ্রুবক শেখার হারের 1e-4(অর্থাৎ 0.0001) ব্যবহার করে। কোডটি সাধারণত নিম্নলিখিতটি দেখায়: ...build the model... # Add the optimizer train_op = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) # Add the ops to initialize variables. These will include # the optimizer slots added by AdamOptimizer(). init_op = tf.initialize_all_variables() # launch …

1
স্টচাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত জন্য ব্যাচের আকার কত বড় হওয়া উচিত?
আমি বুঝতে পারি যে স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত ট্র্যাকিং ডেটাসেটের পৃথক নমুনা সহ প্রতিটি পুনরাবৃত্তি আপডেট করে ব্যাকপ্রোপেশন ব্যবহার করে নিউরাল নেটওয়ার্কটি অনুকূল করতে ব্যবহৃত হতে পারে। ব্যাচের আকার কত বড় হওয়া উচিত?

4
গতিবেগ ভিত্তিক গ্রেডিয়েন্ট বংশোদ্ভূত এবং নেস্টারভের ত্বরণী গ্রেডিয়েন্ট বংশোদ্ভূত মধ্যবর্তী পার্থক্য কী?
সুতরাং গতিবেগ ভিত্তিক গ্রেডিয়েন্ট বংশোদ্ভূত নিম্নলিখিত হিসাবে কাজ করে: v = s ই l f। মি ও এম ই এন টি ইউ এম ∗ এম - এল আর ∗ জিবনাম=গুলিইঠচ।মিণমিইএনটিতোমার দর্শন লগ করামি*মি-ঠR*ছv=self.momentum*m-lr*g যেখানে পূর্ববর্তী ওজন আপডেট, এবং পরামিতি থেকে সম্মান সঙ্গে বর্তমান গ্রেডিয়েন্ট হয় , শেখার হার, এবং একটি …

1
গ্রেডিয়েন্টডেসেন্টঅপটিমাইজার এবং অ্যাডামঅপটিমাইজার (টেনসরফ্লো) এর মধ্যে পার্থক্য?
আমি একটি সহজ লিখেছি MLP মধ্যে TensorFlow যা মডেলিং করা হয় XOR যাও-গেট । অনেক দূরে: input_data = [[0., 0.], [0., 1.], [1., 0.], [1., 1.]] এটি নিম্নলিখিত উত্পাদন করা উচিত: output_data = [[0.], [1.], [1.], [0.]] নেটওয়ার্কটিতে একটি ইনপুট স্তর, একটি লুকানো স্তর এবং প্রতিটি 2, 5 এবং 1 …

1
স্টোকাস্টিক গ্রেডিয়েন্ট বংশদ্ভুতের আদম পদ্ধতি কীভাবে কাজ করে?
নিউরাল নেটওয়ার্ক প্রশিক্ষণের জন্য আমি বেসিক গ্রেডিয়েন্ট বংশদ্ভুত অ্যালগরিদমগুলির সাথে পরিচিত। আমি অ্যাডামের প্রস্তাব দেওয়ার কাগজটি পড়েছি: অ্যাডাম: স্টকস্টিক অপ্টিমাইজেশনের একটি পদ্ধতি । আমি অবশ্যই কিছু অন্তর্দৃষ্টি পেয়েছি (কমপক্ষে), কাগজটি সামগ্রিকভাবে আমার কাছে খুব উচ্চ স্তরের বলে মনে হচ্ছে। উদাহরণস্বরূপ, একটি ব্যয় ফাংশন প্রায়শই বিভিন্ন বিভিন্ন ফাংশনের সমষ্টি, অতএব এর …

1
নিউরাল নেটওয়ার্ক: ওজন পরিবর্তনের গতি এবং ওজন ক্ষয়
মোমেন্টাম একটানা পুনরাবৃত্তির সাথে ওজন পরিবর্তনের ওঠানামা হ্রাস করতে ব্যবহৃত হয়:αα\alpha যেখানেই(W)ত্রুটি ফাংশন হয়,W- ওজন ভেক্টর,η- শেখার হার।Δωi(t+1)=−η∂E∂wi+αΔωi(t),Δωi(t+1)=−η∂E∂wi+αΔωi(t),\Delta\omega_i(t+1) = - \eta\frac{\partial E}{\partial w_i} + \alpha \Delta \omega_i(t),E(w)E(w)E({\bf w})ww{\bf w}ηη\eta ওজন ক্ষয় ওজন পরিবর্তনের দণ্ড দেয়:λλ\lambda Δωi(t+1)=−η∂E∂wi−ληωiΔωi(t+1)=−η∂E∂wi−ληωi\Delta\omega_i(t+1) =- \eta\frac{\partial E}{\partial w_i} - \lambda\eta\omega_i প্রশ্নটি হ'ল যদি পিছনের প্রচারের সময় উভয় কৌশলকে …

4
রেকটাইনার অ্যাক্টিভেশন ফাংশন কীভাবে নিউরাল নেটওয়ার্কগুলিতে বিলুপ্ত গ্রেডিয়েন্ট সমস্যা সমাধান করে?
নিউরাল নেটওয়ার্কগুলির জন্য বিলুপ্ত গ্রেডিয়েন্ট সমস্যার সমাধান হিসাবে আমি বেশ কয়েকটি স্থানে প্রশংসিত লিনিয়ার ইউনিট (আরএলইউ) পেয়েছি । এটি, সক্রিয়করণ ফাংশন হিসাবে এক সর্বোচ্চ (0, x) ব্যবহার করে। যখন অ্যাক্টিভেশনটি ইতিবাচক হয়, তবে স্পষ্টতই বলা যায় যে এটি সিগময়েড অ্যাক্টিভেশন ফাংশনটির চেয়ে ভাল, যেহেতু এর এক্সেরিভিশনটি সর্বদা বড় এক্স এর …

2
স্টোকাস্টিক গ্রেডিয়েন্ট বংশোদ্ভূত আবিষ্কার কে?
আমি গ্রেডিয়েন্ট বংশোদ্ভূত ইতিহাস এবং স্টোকাস্টিক গ্রেডিয়েন্ট বংশদ্ভুত ইতিহাস বোঝার চেষ্টা করছি । গ্রেডিয়েন্ট বংশদ্ভুত আবিষ্কৃত হয়েছিল কোশি 1847 সালে পদ্ধতি générale ঢালা লা রেজল্যুশন দেস Systemes d'সমীকরণ simultanées । পিপি। 536–538 এটি সম্পর্কে আরও তথ্যের জন্য এখানে দেখুন । সেই থেকে গ্রেডিয়েন্ট বংশদ্ভুত পদ্ধতিগুলি বিকাশ করে চলেছে এবং আমি …

2
লিনিয়ার রিগ্রেশন মডেলের সহগগুলি খুঁজে পেতে কি আমাদের গ্রেডিয়েন্ট বংশোদ্ভূত দরকার?
আমি কোর্সেরা উপাদান ব্যবহার করে মেশিন লার্নিং শেখার চেষ্টা করছিলাম । এই বক্তৃতায় অ্যান্ড্রু এনজি লিনিয়ার রিগ্রেশন মডেলের সহগগুলি খুঁজে পেতে গ্রেডিয়েন্ট বংশদ্ভুত অ্যালগরিদম ব্যবহার করে যা ত্রুটি ফাংশন (ব্যয় ফাংশন) হ্রাস করবে। লিনিয়ার রিগ্রেশন জন্য, আমাদের কি গ্রেডিয়েন্ট বংশোদ্ভূত দরকার? দেখে মনে হচ্ছে যে আমি ত্রুটিযুক্তভাবে ত্রুটি ফাংশনটিকে আলাদা …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.