হ্যাঁ আপনি অ-চিত্রের ডেটা প্রক্রিয়া করতে গভীর শেখার কৌশলগুলি ব্যবহার করতে পারেন। তবে অন্যান্য মডেল ক্লাসগুলি এখনও সিগন্যাল-প্রক্রিয়াজাতকরণ এবং সম্পর্কিত কাজের বাইরে স্নায়বিক নেটওয়ার্কগুলির সাথে খুব প্রতিযোগিতামূলক।
অ-সিগন্যাল / নন-সিকোয়েন্স ডেটাতে গভীর শেখার পদ্ধতির ব্যবহার করতে সাধারণত আপনি একটি সাধারণ ফিড-ফরোয়ার্ড মাল্টি-লেয়ার নেটওয়ার্ক ব্যবহার করেন। সমঝোতা স্তর বা পুলিং স্তরগুলির প্রয়োজন নেই। এর বাইরে সর্বোত্তম আর্কিটেকচারটি ক্রস-বৈধকরণের সাথে অন্বেষণ করা দরকার, এবং গভীর এনএন প্রশিক্ষণে প্রচুর গণনা নিতে পারে বলে এটি আবিষ্কার করা সময়সাপেক্ষ হতে পারে।
আমার অভিজ্ঞতায় কাগল প্রতিযোগিতায় গভীর (-শব্দ, সাধারণত ~ 5 স্তর) নিউরাল নেটওয়ার্কগুলি ব্যবহার করার চেষ্টা করা হয়েছে:
ড্রপআউট এখনও নিয়মিতকরণ এবং নির্ভুলতার উন্নতির জন্য অত্যন্ত কার্যকর
ইনপুট নরমালাইজেশন - সাধারণত 0, স্ট্যান্ডার্ড ডিভিয়েটন 1 এর অর্থ গুরুত্বপূর্ণ
লুকানো স্তর সক্রিয়করণ ফাংশন একটি পার্থক্য করতে পারে। যদিও রিলু বিলুপ্ত গ্রেডিয়েন্টগুলির সাথে কিছু সমস্যা হ্রাস করেছে, আমার অভিজ্ঞতায় এটি সংকেতবিহীন ডেটাগুলির সাথে কম শক্তিশালী এবং আপনি অন্য কোনও ফর্ম চাইবেন। আপনার যদি কয়েকটি মাত্র স্তর থাকে তবে সিগময়েড বা তানহ এখনও ঠিক আছে। অন্যথায়, ফাঁস হওয়া আরএলইউ, প্রেলু, ইএলইউ এবং অন্যান্য আরএলইউ ভেরিয়েন্টগুলি দেখুন যা "মৃত" নিউরনের সাহায্যে এর সমস্যাগুলি প্যাচ করার চেষ্টা করে।
গভীর শিক্ষার জন্য যেমন ডিজাইন করা অপ্টিমাইজারগুলি ব্যবহার করুন, যেমন অ্যাডাম, অ্যাডাগ্রাড বা আরএমএসপ্রপ
ওজন সূচনা পদ্ধতির ব্যবহার করুন যা গভীর শিক্ষার সাথে কাজ করে, যেমন গ্লোরোট।
ব্যাচ সাধারণকরণ স্তরগুলি ব্যবহার করার বিষয়টি বিবেচনা করুন। আমার এমন অনেক কিছুই নয় যার সাথে আমার বেশি অভিজ্ঞতা রয়েছে তবে আমি অন্যান্য লোকদের এই পদ্ধতির সাথে ভাল করতে দেখেছি।
এত কিছুর পরেও এক্সজিবিস্ট তুলনামূলকভাবে নূন্যতম টিউনিং এবং প্রশিক্ষণের প্রচেষ্টা দিয়ে গভীর এনএনগুলিকে নিয়মিত এবং সহজেই হারাতে পারে (সমস্যাটি এবং আপনার যে ডেটা রয়েছে তার উপর নির্ভর করে)। যথাযথতা যদি আপনার কাছে সবকিছুই থাকে তবে এটি সম্ভব - যদিও এটির গ্যারান্টি নেই - যে গভীর এনএনএস এবং এক্সজিবিস্টের মতো অন্যান্য মডেলের একটি পোশাক এককভাবে তুলনামূলকভাবে ভাল সম্পাদন করবে।