পুনরাবৃত্ত নিউরাল নেটওয়ার্কের কাঠামো (এলএসটিএম, জিআরইউ)


10

আমি আরএনএনগুলির আর্কিটেকচারটি বোঝার চেষ্টা করছি। আমি এই টিউটোরিয়ালটি পেয়েছি যা খুব সহায়ক হয়েছে: http://colah.github.io/posts/2015-08- ব্যাখ্যা- LSTMs/

বিশেষ করে এই চিত্র: এখানে চিত্র বর্ণনা লিখুন

এটি কীভাবে ফিড-ফরওয়ার্ড নেটওয়ার্কে ফিট করে? এই চিত্রটি কি প্রতিটি স্তরের আরেকটি নোড?


নাকি প্রতিটি নিউরনের মতো দেখতে এটি হয়?
আদম 12344

উত্তর:


8

এ, আসলে একটি পূর্ণ স্তর। স্তর আউটপুট হয়টি, আসলে নিউরন আউটপুট, এটি একটি সফটম্যাক্স লেয়ারে প্লাগ করা যেতে পারে (যদি আপনি সময়ের পদক্ষেপের জন্য একটি শ্রেণিবিন্যাস চান টি, উদাহরণস্বরূপ) বা আরও গভীরতর কিছু যেতে চাইলে অন্য কোনও LSTM স্তর হিসাবে অন্য কিছু। এই স্তরটির ইনপুট হ'ল নিয়মিত ফিডফোরওয়ার্ড নেটওয়ার্ক থেকে আলাদা করে তোলে: এটি উভয়ই ইনপুট নেয়এক্সটি এবং পূর্ববর্তী সময় ধাপে নেটওয়ার্কের সম্পূর্ণ অবস্থা (উভয়ই) টি-1 এবং অন্যান্য ভেরিয়েবলগুলি এলএসটিএম সেল থেকে)।

মনে রাখবেন যে টিএকটি ভেক্টর। সুতরাং, আপনি যদি 1 টি লুকানো স্তর সহ নিয়মিত ফিডফর্ডার নেটওয়ার্কের সাথে সাদৃশ্য তৈরি করতে চান তবে এটিকে লুকানো স্তরের (নিউক্লিয়াসহ পুনরাবৃত্ত অংশের অতিরিক্ত জটিলতা) এই সমস্ত নিউরনের স্থান গ্রহণ হিসাবে ভাবা যেতে পারে।


ডু টি, টি এবং এক্সটিসব একই দৈর্ঘ্য আছে?
ব্যবহারকারী_1177868

6

আপনার ছবিতে এ হ'ল একক লুকানো নিউরন সহ একটি লুকানো স্তর। বাম থেকে ডান হ'ল সময় অক্ষ এবং নীচে আপনি প্রতিটি সময় একটি ইনপুট পান। শীর্ষে স্তরগুলি যুক্ত করে নেটওয়ার্কটি আরও প্রসারিত করা যেতে পারে।

যদি আপনি সময় মতো এই নেটওয়ার্কটি উদ্ঘাটিত করেন, যেমনটি আপনার ছবিতে দৃশ্যমানভাবে দেখানো হচ্ছে (বাম থেকে ডানদিকে সময়-অক্ষটি প্রকাশিত হয়েছে) তবে আপনি টি (সময় ধাপের মোট পরিমাণ) গোপন স্তর সহ একটি ফিডফোরওয়ার্ড নেটওয়ার্ক পাবেন যার প্রত্যেকটিতে একটি রয়েছে একক নোড (নিউরন) যেমন মাঝের এ ব্লকে আঁকা।

আশা করি এটি আপনার প্রশ্নের উত্তর দেয়।


3

আমি সেই সহজ চিত্রটি তুলনামূলক জটিল প্রসঙ্গে ব্যাখ্যা করতে চাই: সেক 2 সেক মডেলের ডিকোডারটিতে মনোযোগ ব্যবস্থা।

প্রবাহ ডায়াগ্রাম বেলো মধ্যে, 0 প্রতি -1সময়ের পদক্ষেপগুলি (ফাঁকাগুলির জন্য পিএডি সহ ইনপুট সংখ্যার সমান দৈর্ঘ্যের)। প্রতিবার শব্দটি ith (সময় পদক্ষেপ) এ isোকানো হলে LSTM নিউরাল (বা আপনার চিত্রের তিনজনের যে কার্নাল কোষ একইরকম) এটি তার পূর্ববর্তী অবস্থা ((i-1) তম আউটপুট) অনুযায়ী আইথ আউটপুট গণনা করে এবং ith ইনপুটএক্সআমি। আমি এটি ব্যবহার করে আপনার সমস্যাটি চিত্রিত করেছি কারণ টাইমস্ট্যাপের সমস্ত রাজ্যগুলি কেবলমাত্র সর্বশেষটি পাওয়ার জন্য ফেলে দেওয়া নয় বরং মনোযোগ ব্যবস্থার জন্য সংরক্ষণ করা হয়েছে। এটি কেবলমাত্র একটি নিউরাল এবং একটি স্তর হিসাবে দেখা হয় (একাধিক স্তর গঠনের জন্য স্ট্যাক করা যেতে পারে উদাহরণস্বরূপ হাইগার স্তরগুলিতে আরও বিমূর্ত তথ্য আহরণের জন্য কিছু সেক 2 সেক মডেলের একটি দ্বি-নির্দেশমূলক এনকোডার)।

এরপরে এটি বাক্যটি এনকোড করে (এল শব্দ সহ এবং প্রত্যেকে আকৃতির ভেক্টর হিসাবে প্রতিনিধিত্ব করে: এম্বেডিং_ডিমেন্টেশন * 1) এল টেনারগুলির একটি তালিকাতে (প্রতিটি আকার: num_hided / num_units * 1)। এবং ডিকোডারের কাছে রাজ্য অতীত তালিকার প্রতিটি আইটেমের একই আকারের বাক্য এম্বেডিং হিসাবে কেবল সর্বশেষ ভেক্টর।

এখানে চিত্র বর্ণনা লিখুন
চিত্র উত্স: মনোযোগ ব্যবস্থা

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.