এখানে একটি আলোচনার থ্রেড রয়েছে (জুলাই ২০১৩ থেকে) ইঙ্গিত করে যে এটিতে কিছু সমস্যা থাকতে পারে তবে এটি করা যেতে পারে।
ইয়ালার গালিয়েহ্রে (যোশুয়া বেঙ্গিওর ল্যাব থেকে) বলেছেন যে তিনি জ্ঞান সংক্রান্ত বিষয়গুলিতে সফলভাবে নিম্নলিখিত কৌশলটি ব্যবহার করেছেন: অনুকূলকরণের জন্য পূর্বের তথ্যের গুরুত্ব :
প্রথম ডিএই যথারীতি প্রশিক্ষণ দিন, তবে লুকানো স্তরে সংশোধনকারীদের
a1(x) = W1 x + b1
h1 = f1(x) = rectifier(a1(x))
g1(h1) = {sigmoid}(V1 h1 + c1)
সাথে: জি 1 (এফ 1 (দুর্নীতিগ্রস্থ (এক্স)) এবং এক্স এর সাথে তুলনা করে ক্রস-এনট্রপি বা এমএসই ক্ষতি হ্রাস করুন। সিগময়েডটি ডেটার উপর নির্ভর করে .চ্ছিক।
2nd কৃষি সম্প্রসারণ অধিদপ্তরের প্রশিক্ষণ দিয়ে গোলমাল সামনে MSE ক্ষতি সঙ্গে F1 সংশোধনকারী এবং ব্যবহার softplus পুনর্গঠন ইউনিট যোগ করেছেন:
h2 = f2(h1) = rectifier(W2 h1 + b2)
g2(h2) = softplus(V2 h2 + c2)
কমান∥f1(x)−g2(f2(rectifier(corrupt(a1(x)))))∥2+λ1∥W∥1+λ2∥W∥2
বেঞ্জিও ল্যাব থেকে আসা জাভিয়ার গ্লোরট বলেছিলেন যে ডোমেন অভিযোজন উভয়ের জন্য "অ্যাক্টিভেশন মানগুলিতে" একটি জরিমানা (সম্ভবতঃ ?) তিনি একই কাজ করেছেন for বৃহত্তর স্কেল সেন্টিমেন্ট শ্রেণিবদ্ধকরণ : একটি গভীর শিখন পদ্ধতির (আইসিএমএল ২০১১) এবং ডিপ স্পার্স রেকটিফায়ার নিউরাল নেটওয়ার্কগুলিতে (এআইআইএসটিএটিএস ২০১১)।∥W∥1L1∥g2(…)∥1