আমি ভাবছি কীভাবে একটি ইইজি প্রসঙ্গে পুনরাবৃত্তি আর্কিটেকচারটি ব্যাখ্যা করব। বিশেষত আমি এটিকে পুনরাবৃত্ত সিএনএন (এলএসটিএম এর মতো আর্কিটেকচারের বিপরীতে) হিসাবে ভাবছি, তবে এটি অন্যান্য ধরণের পুনরাবৃত্ত নেটওয়ার্কগুলির ক্ষেত্রেও প্রযোজ্য maybe
আমি যখন আর-সিএনএন সম্পর্কে পড়ি তখন এগুলি সাধারণত চিত্রের শ্রেণিবদ্ধকরণ প্রসঙ্গে ব্যাখ্যা করা হয়। এগুলি সাধারণত "সময়ের সাথে শেখা" বা "বর্তমান ইনপুটটিতে টাইম -১ এর প্রভাব সহ" হিসাবে বর্ণনা করা হয়
ইইজি ডেটা নিয়ে কাজ করার সময় এই ব্যাখ্যা / ব্যাখ্যাটি সত্যই বিভ্রান্ত হয়। একটি r- সিএনএন একটি উদাহরণ EEG তথ্য পাওয়া যেতে পারে ব্যবহৃত হচ্ছে এখানে
কল্পনা করুন যে আমার কাছে প্রতিটি 1x512 অ্যারে সমন্বিত প্রশিক্ষণের উদাহরণ রয়েছে। এই অ্যারে একটানা 512 সময় পয়েন্টে 1 ইলেক্ট্রোডের জন্য একটি ভোল্টেজ রিডিং ক্যাপচার করে। যদি আমি এটি পুনরুক্ত সিএনএন (1 ডি কনভোলিউশনগুলি ব্যবহার করে) হিসাবে ইনপুট হিসাবে ব্যবহার করি, তবে মডেলের পুনরাবৃত্ত অংশটি আসলে "সময়" ক্যাপচার করছে না, তাই না? (যেমনটি পূর্বে আলোচনা করা বর্ণন / ব্যাখ্যা দ্বারা বোঝানো হবে) কারণ এই প্রসঙ্গে সময়টি ইতিমধ্যে অ্যারের দ্বিতীয় মাত্রা দ্বারা ধরা পড়েছে
সুতরাং এটির মতো একটি সেটআপ দিয়ে, নেটওয়ার্কের পুনরাবৃত্ত অংশটি আমাদের এমন একটি মডেল করতে দেয় যা নিয়মিত সিএনএন (সময় না থাকলে) পারে না?
আমার কাছে মনে হয় যে পুনরাবৃত্তি হ'ল মানে বোঝানো একটি বোঝা করা, ফলাফলটিকে মূল ইনপুটটিতে যুক্ত করা এবং আবার কনভলভ করা। এটি এক্স সংখ্যার পুনরাবৃত্ত পদক্ষেপের জন্য পুনরাবৃত্তি হয়। এই প্রক্রিয়াটি আসলে কী সুবিধা দেয়?