লজিস্টিক অ্যাক্টিভেশন ফাংশনগুলি ব্যবহার করার সময়, এটি সত্য যে প্রতিটি ইউনিটের ইনপুটগুলির সাথে তার আউটপুট সম্পর্কিত ফাংশনটি লজিস্টিক রিগ্রেশন হিসাবে একই। কিন্তু, এটি প্রতিটি ইউনিট লজিস্টিক রিগ্রেশন সম্পাদন করার মতো সত্য নয়। পার্থক্যটি হ'ল লজিস্টিক রিগ্রেশনে, ওজন এবং পক্ষপাতটি এমনটি বেছে নেওয়া হয় যে আউটপুট সেরা টার্গেট মানগুলির সাথে মিলিত হয় (লগ / ক্রস-এনট্রপি ক্ষতি ব্যবহার করে)। বিপরীতে, একটি নিউরাল নেট মধ্যে লুকানো ইউনিটগুলি তাদের আউটপুটগুলি ডাউন স্ট্রিম ইউনিটে প্রেরণ করে। স্বতন্ত্র লুকানো ইউনিটগুলির জন্য কোনও লক্ষ্য আউটপুট মিলবে না। পরিবর্তে, ওজন এবং পক্ষপাতগুলি নেটওয়ার্কের চূড়ান্ত আউটপুট উপর নির্ভর করে কিছু উদ্দেশ্যমূলক ফাংশন হ্রাস করতে বেছে নেওয়া হয়।
লজিস্টিক রিগ্রেশন সম্পাদন করার পরিবর্তে, প্রতিটি লুকানো ইউনিটকে কিছু বৈশিষ্ট্যযুক্ত স্থানে একটি স্থানাঙ্কের কম্পিউটিং হিসাবে ভাবা আরও বোধগম্য হতে পারে। এই দৃষ্টিকোণ থেকে, একটি লুকানো স্তরটির উদ্দেশ্য এর ইনপুটটি রূপান্তর করা - ইনপুট ভেক্টরটি লুকানো স্তর সক্রিয়করণের একটি ভেক্টরে ম্যাপ করা হয়। আপনি প্রতিটি লুকানো ইউনিটের সাথে সম্পর্কিত একটি মাত্রা সহ কোনও বৈশিষ্ট্য স্পেসে ইনপুট ম্যাপিং হিসাবে এটি ভাবতে পারেন।
আউটপুট স্তরটি প্রায়শই একটি স্ট্যান্ডার্ড লার্নিং অ্যালগরিদম হিসাবে ভাবা যেতে পারে যা এই বৈশিষ্ট্যটিতে কাজ করে। উদাহরণস্বরূপ, একটি শ্রেণিবদ্ধকরণ কার্যে ক্রস এন্ট্রপি ক্ষতির সাথে একটি লজিস্টিক আউটপুট ইউনিট ব্যবহার করা বৈশিষ্ট্য স্পেসে লজিস্টিক রিগ্রেশন সম্পাদনের সমতুল্য (বা সফটম্যাক্স আউটপুট ব্যবহার করে মাল্টিনোমিয়াল লজিস্টিক রিগ্রেশন)। একটি রিগ্রেশন টাস্কে স্কোয়ার ত্রুটির সাথে লিনিয়ার আউটপুট ব্যবহার করা বৈশিষ্ট্য স্পেসে কমপক্ষে স্কোয়ার লিনিয়ার রিগ্রেশন সম্পাদনের সমতুল্য।
নেটওয়ার্ক প্রশিক্ষণ বৈশিষ্ট্য স্পেস ম্যাপিং এবং শ্রেণিবদ্ধকরণ / রিগ্রেশন ফাংশন (বৈশিষ্ট্য স্পেসে) শেখার সমান, যা একত্রে সর্বোত্তম পারফরম্যান্স দেয়। ননলাইনার লুকানো ইউনিট ধরে নেওয়া, লুকানো স্তরের প্রস্থ বৃদ্ধি বা একাধিক লুকানো স্তরগুলি স্ট্যাক করা আরও জটিল বৈশিষ্ট্য স্পেস ম্যাপিংকে অনুমতি দেয়, যার ফলে আরও জটিল ফাংশন ফিট হতে পারে।