এটি পরিভাষার প্রশ্ন। কখনও কখনও আমি দেখি লোকেরা গভীর নিউরাল নেটওয়ার্কগুলিকে "মাল্টি-লেয়ার্ড পারসেপ্ট্রনস" হিসাবে উল্লেখ করে, এটি কেন? একটি পেরসেপট্রন, যা আমাকে শেখানো হয়েছিল, এটি একটি একক স্তরের শ্রেণিবদ্ধ (বা রেগ্রসর) বাইনারি থ্রেশহোল্ড আউটপুট সহ ওজন প্রশিক্ষণের নির্দিষ্ট উপায় (ব্যাক-প্রপ নয়) ব্যবহার করে। যদি পেরসেপট্রনের আউটপুট লক্ষ্য আউটপুটটির সাথে মেলে না, আমরা ইনপুট ভেক্টরকে ওজনগুলিতে যুক্ত করতে বা বিয়োগ করতে পারি (পারসেপ্ট্রন কোনও মিথ্যা ধনাত্মক বা মিথ্যা negativeণাত্মক দিয়েছে কিনা তার উপর নির্ভর করে)। এটি বেশ আদিম মেশিন লার্নিং অ্যালগরিদম। প্রশিক্ষণ পদ্ধতিটি কোনও মাল্টি-লেয়ার কেস (কমপক্ষে কোনও পরিবর্তন ছাড়াই নয়) জেনারালাইজ করার জন্য উপস্থিত হয় না। ব্যাকপ্রপের মাধ্যমে একটি গভীর নিউরাল নেটওয়ার্ক প্রশিক্ষণ দেওয়া হয় যা ব্যয় কার্যকারণের গ্রেডিয়েন্টগুলি নেটওয়ার্কের সমস্ত ওজনে ফিরে প্রচার করতে চেইন বিধি ব্যবহার করে।
সুতরাং, প্রশ্ন হল। একটি "মাল্টি-লেয়ার পার্সেপেট্রন" "ডিপ নিউরাল নেটওয়ার্ক" হিসাবে একই জিনিস? যদি তা হয় তবে এই পরিভাষাটি কেন ব্যবহৃত হয়? এটি অযথা বিভ্রান্তিকর বলে মনে হচ্ছে। এছাড়াও, পরিভাষাটি কিছুটা বিনিময়যোগ্য বলে ধরে নেওয়া, আমি সম্পূর্ণভাবে সংযুক্ত স্তরগুলি থেকে গঠিত কোনও ফিড-ফরোয়ার্ড নেটওয়ার্কের কথা উল্লেখ করার সময় "মাল্টি-লেয়ার পার্সেপট্রন" দেখেছি (কোন বিবর্তনীয় স্তর, বা পুনরাবৃত্ত সংযোগ নেই)। এই পরিভাষাটি কতটা বিস্তৃত? উদাহরণস্বরূপ, ইনসেপশন নেট উল্লেখ করার সময় কেউ কি "মাল্টি-লেয়ারড পারসেপ্ট্রন" শব্দটি ব্যবহার করবেন? এনএলপিতে ব্যবহৃত এলএসটিএম মডিউলগুলি ব্যবহার করে একটি পুনরাবৃত্ত নেটওয়ার্ক সম্পর্কে কীভাবে?