একটি আকর্ষণীয় বিকল্পটি নিউরাল-ভিত্তিক মাত্রিকতা হ্রাস অন্বেষণ করবে। মাত্রিকতা হ্রাসের জন্য সর্বাধিক ব্যবহৃত ধরণের নেটওয়ার্ক, অটোরকোডারটি এর ব্যয়ে প্রশিক্ষণ দেওয়া যেতে পারে , যেখানে প্রশিক্ষণের পুনরাবৃত্তিগুলি উপস্থাপন (প্রশিক্ষণের ডেটা থেকে পৃথক একটি হাইপার-প্যারামিটার) । অতএব, প্রশিক্ষণ জটিলতা সহজসাধ্য করার জন্য ।O(i⋅n)iO(n)
আপনি 2006 সালে হিন্টন এবং সালাখুতদিনোভের সেমিনারের কাজটি একবার দেখে শুরু করতে পারেন [1]। সেই থেকে, জিনিসগুলি অনেকটা বিকশিত হয়েছিল। এখন বেশিরভাগ দৃষ্টিভঙ্গি ভেরিয়েশনাল অটেনকোডার্স দ্বারা প্রাপ্ত [2], তবে মূল ধারণাটি (একটি নেটওয়ার্ক যা এর আউটপুট স্তরটিতে ইনপুটটিকে একটি বোতল স্তরের সাথে মধ্যবর্তী স্থানে পুনর্গঠন করে) একই থাকে। মনে রাখবেন যে, পিসিএ এবং আরপির বিপরীতে, অটোরকোডারগুলি অলৈখিক মাত্রিক হ্রাস সম্পাদন করে। এছাড়াও, টি-এসএনইর বিপরীতে, অটেনকোডাররা পুরো মডেলটিকে পুনরায় প্রশিক্ষণের প্রয়োজন ছাড়াই অদেখা নমুনাগুলি রূপান্তর করতে পারে।
ব্যবহারিক দিক থেকে, আমি এই পোস্টটি একবারে দেখেছি , যা আশ্চর্যজনক লাইব্রেরি কেরাসের সাথে কীভাবে বিভিন্ন ধরণের অটোইনকোডারগুলি প্রয়োগ করতে হবে তার বিশদ দেয়।
[1] হিন্টন, জিই, এবং সালখুদ্দিনভ, আরআর (2006)। নিউরাল নেটওয়ার্কগুলির সাহায্যে ডেটার মাত্রিকতা হ্রাস করা। বিজ্ঞান, 313 (5786), 504-507।
[2] কিংমা, ডিপি, এবং ওয়েলিং, এম (2013)। অটো-এনকোডিং ভেরিয়েশনাল বেয়েস। আরএক্সিভ প্রিপ্রিন্ট আরএক্সিভ: 1312.6114।