আমি কোনও উপায়ে অটোরকোডার বা নিউরাল নেটওয়ার্কগুলির বিশেষজ্ঞ নই, সুতরাং যদি এটি নির্বোধ প্রশ্ন হয় তবে আমাকে ক্ষমা করুন।
হাই ডাইমেনশনাল ডেটাতে মাত্রা হ্রাস বা দৃশ্যমান ক্লাস্টারগুলির উদ্দেশ্যে, আমরা দুটি নোডের সাহায্যে নেটওয়ার্ক স্তরটির আউটপুট পরিদর্শন করে একটি (ক্ষতিগ্রস্ত) 2 মাত্রিক প্রতিনিধিত্ব তৈরি করতে একটি অটোরকোডার ব্যবহার করতে পারি। উদাহরণস্বরূপ, নিম্নলিখিত আর্কিটেকচারের সাহায্যে আমরা তৃতীয় স্তরটির আউটপুট পরীক্ষা করব
যেখানে ইনপুট ডেটা এবং এন l হ'ল l ম স্তরটিতে নোডের সংখ্যা ।
এখন, আমার প্রশ্ন, আমরা কেন একটি প্রতিসম আর্কিটেকচার চাই? গভীর 'সংকোচনের' পর্বের আয়নাটির অর্থ কি এই নয় যে আমাদের একই ধরণের জটিল 'ডিকম্প্রেশন' পর্ব হতে পারে যার ফলে 2 নোড আউটপুট তৈরি হয় যা খুব স্বজ্ঞাত হতে বাধ্য হয় না? অন্য কথায়, 2 নোডের সাথে স্তরটির আউটপুটটিতে একটি সহজ ডিকোডিং পর্বের ফলাফলটি কি অগত্যা সহজতর হবে না?
এখানে আমার চিন্তাভাবনাটি হ'ল ডিকম্প্রেশন পর্ব যত কম জটিল, সরল (আরও লিনিয়ার?) 2 ডি প্রতিনিধিত্ব করতে হবে। আরও জটিল ডিকম্প্রেশন পর্ব আরও জটিল 2 ডি উপস্থাপনের অনুমতি দেয়।