আমি আপনাকে পরামর্শ দেব যে আপনি প্রথমে একটি traditionalতিহ্যবাহী বায়েশিয়ান নিউরাল নেটওয়ার্কের অন্তর্নিহিত সম্ভাব্য মডেলটি ভালভাবে উপলব্ধি করুন। নিম্নলিখিতটিতে কিছু পদ একটি বোল্ডফেস সহ লেখা হবে । দয়া করে আরও বিশদ তথ্য সন্ধানের জন্য এই শর্তাদি গুগল করার চেষ্টা করুন। এটি কেবলমাত্র একটি প্রাথমিক পর্যালোচনা। আমি আসা করি এটা সাহায্য করবে.
আসুন ক্ষেত্রে বিবেচনা রিগ্রেশন মধ্যে feedforward স্নায়ুর নেটওয়ার্ক এবং কিছু স্বরলিপি কায়েম কর।
আসুন ইনপুট স্তরে পূর্বাভাসকের মানগুলি বোঝায় । মান ইউনিট মধ্যে ভেতরের স্তর দ্বারা প্রকাশ করা হবে না , জন্য । শেষ আমাদের আউটপুট স্তর ।( জেড ( ℓ ) 1 , … , জেড ( ℓ ) এন ℓ ) ℓ = 1 , … , এল - 1 ( y 1 , … , y কে )(x1,…,xp)=:(z(0)1,…,z(0)N0)(z(ℓ)1,…,z(ℓ)Nℓ)ℓ=1,…,L−1 (y1,…,yk)=:(z(L)1,…,z(L)NL)
ওজন এবং পক্ষপাত ইউনিট লেয়ার এ দ্বারা প্রকাশ করা হবে না এবং যথাক্রমে জন্য , , এবং ।iℓw(ℓ)ijb(ℓ)iℓ=1,…,Li=1…,Nℓj=1,…,Nℓ−1
যাক হতে অ্যাক্টিভেশন ফাংশন ইউনিট জন্য লেয়ার এ জন্য এবং ।g(ℓ)i:RNℓ−1→Riℓℓ=1,…,Li=1…,Nℓ
সাধারণভাবে ব্যবহৃত অ্যাক্টিভেশন ফাংশন হ'ল লজিস্টিক , আরএলইউ (ওরফে পজিটিভ পার্ট ) এবং তানহ ।
এখন, জন্য স্তর স্থানান্তর ফাংশনগুলি সংজ্ঞায়িত করুন
যাতে
জন্য ।ℓ=1,…,L
G(ℓ):RNℓ−1→RNℓ:(z(ℓ−1)1,…,z(ℓ−1)Nℓ−1)↦(z(ℓ)1,…,z(ℓ)Nℓ),
z(ℓ)i=g(ℓ)i(∑j=1Nℓ−1w(ℓ)ijz(ℓ−1)j+b(ℓ)i),
i=1,…,Nℓ
দ্বারা সমস্ত স্তরগুলিতে সমস্ত ইউনিটের ওজন এবং বায়াসের সেটকে বোঝানো হচ্ছে, এটি হ'ল
আমাদের নিউরাল নেটওয়ার্ক ফাংশনগুলির পরিবার স্তর সংক্রমণ ফাংশনগুলির রচনা দ্বারা প্রাপ্ত:
θ
θ={w(ℓ)ij,b(ℓ)i:ℓ=1,…,L;i=1…,Nℓ;j=1,…,Nℓ−1},
Gθ:Rp→RkGθ=G(L)∘G(L−1)∘⋯∘G(1).
উপরের বর্ণনায় কোনও সম্ভাব্যতা জড়িত নেই। মূল নিউরাল নেটওয়ার্ক ব্যবসায়ের উদ্দেশ্য হ'ল ফাংশন ফিটিং ।
ডিপ লার্নিংয়ের "গভীর" হ'ল বিবেচনাধীন নিউরাল নেটওয়ার্কগুলিতে অনেক অভ্যন্তরীণ স্তরগুলির অস্তিত্ব।
একটি প্রশিক্ষণ সেট দেওয়া হয়েছে আমরা উদ্দেশ্য ফাংশন কমানোর জন্য চেষ্টা
ওভার । ভবিষ্যতবক্তা কিছু ভেক্টর জন্য মধ্যে টেস্ট সেট , পূর্বাভাস প্রতিক্রিয়া সহজভাবে হয় , যা সমাধান মিনিমাইজেশন সমস্যার জন্য পাওয়া গেছে। এই মিনিমাইজেশনের জন্য স্বর্ণের মানটি হ'ল আধুনিক জিপিইউতে উপলব্ধ সমান্তরালিত সুবিধাগুলি ব্যবহার করে টেনসরফ্লো লাইব্রেরি দ্বারা প্রয়োগ করা ব্যাকপ্রোপেশনn ∑ i = 1 ‖ y i - G{(xi,yi)∈Rp×Rk:i=1,…,n}
∑i=1n∥yi−Gθ(xi)∥2,
θx∗Gθ^(x∗)θ^এর (আপনার প্রকল্পগুলির জন্য,
কেরাস ইন্টারফেসটি দেখুন)। এছাড়াও, এখন এই কার্যগুলি (
টিপিইউ ) এর এনক্যাপসুলেট করার জন্য হার্ডওয়্যার উপলব্ধ রয়েছে । যেহেতু স্নায়ুর নেটওয়ার্ক সাধারণ ওভার স্থিতিমাপ হয়, overfitting নিয়মিতকরণ কিছু ফর্ম একটি summing রেসিপি যোগ করা হয়, উদাহরণস্বরূপ এড়াতে
শৈলশিরা উদ্দেশ্য ফাংশন শাস্তি মত, অথবা ব্যবহার
ড্রপআউট প্রশিক্ষণের সময়।
জেফ্রি হিন্টন (ওরফে ডিপ লার্নিং গডফাদার) এবং সহযোগীরা এই বিষয়গুলির অনেকগুলি আবিষ্কার করেছিলেন। ডিপ লার্নিংয়ের সাফল্যের গল্প সর্বত্র রয়েছে।
80 এর দশকের শেষের দিকে এবং 90 এর দশকের গোড়ার দিকে গৌসিয়ান সম্ভাবনা এর প্রস্তাব নিয়ে ছবিতে সম্ভাব্যতা প্রবর্তিত হয়েছিল
এবং একটি সহজ (সম্ভবত সরল) গাউসিয়ান পূর্বে, নেটওয়ার্কের সমস্ত ওজন এবং বায়াসগুলির অগ্রাধিকার স্বাতন্ত্র্য মনে করে :
Lx,y(θ,σ2)∝σ−nexp(−12σ2∑i=1n∥yi−Gθ(xi)∥2),
π(θ,σ2)∝exp(−12σ20∑ℓ=1L∑i=1Nℓ((b(ℓ)i)2+∑j=1Nℓ−1(w(ℓ)ij)2))×π(σ2).
অতএব, ওজন এবং প্রান্তিক প্রিয়ারগুলি শূন্য গড় এবং সাধারণ বৈকল্পিক সহ সাধারণ বিতরণ । এই মূল যৌথ মডেলটিকে আরও বেশি জড়িত করা যেতে পারে, ট্রেড অফকে আরও শক্তিশালী করার সাথে।σ20
বয়েসিয়ান ডিপ লার্নিং সংশ্লিষ্ট উত্তরোত্তর বিতরণ থেকে স্যাম্পলিংয়ের কঠিন কাজের মুখোমুখি। এটি সম্পন্ন হওয়ার পরে, ভবিষ্যদ্বাণীগুলি উত্তরোত্তর ভবিষ্যদ্বাণীমূলক বিতরণ দিয়ে প্রাকৃতিকভাবে তৈরি করা হয় এবং এই ভবিষ্যদ্বাণীগুলির সাথে জড়িত অনিশ্চয়তা পুরোপুরি পরিমিত হয়। বায়সিয়ান ডিপ লার্নিংয়ের পবিত্র কচুকাটি হ'ল একটি দক্ষ এবং স্কেলযোগ্য সমাধানের নির্মাণ। এই কোয়েস্টে অনেকগুলি গণ্য পদ্ধতি ব্যবহার করা হয়েছে: মেট্রোপলিস-হেস্টিংস এবং গিবস স্যাম্পলিং , হ্যামিলটনিয়ান মন্টি কার্লো এবং আরও সম্প্রতি, ভেরিয়াল ইনফারেন্স ।
কিছু সাফল্যের গল্পগুলির জন্য এনআইপিএস সম্মেলনের ভিডিওগুলি দেখুন: http://bayesiandeeplearning.org/