আপনি লিনিয়ার রিগ্রেশন উল্লেখ করেন। এটি লজিস্টিক রিগ্রেশন সম্পর্কিত , যা একই রকম দ্রুত অপ্টিমাইজেশন অ্যালগরিদমযুক্ত। শ্রেণীবদ্ধকরণের সমস্যা সহ আপনার যদি লক্ষ্য মানগুলির সীমা থাকে তবে আপনি লজিস্টিক রিগ্রেশনকে লিনিয়ার রিগ্রেশনকে সাধারণীকরণ হিসাবে দেখতে পারেন।
নিউরাল নেটওয়ার্কগুলি মূল ইনপুটগুলিতে লজিস্টিক রিগ্রেশনের চেয়ে কঠোরভাবে সাধারণ, যেহেতু লুকানো নোডের সাথে স্কিপ-লেয়ার নেটওয়ার্কের সাথে (সরাসরি আউটপুটগুলির সাথে সরাসরি সংযোগগুলি সংযোগের সাথে) সম্পর্কিত ।0
আপনি যখন মতো বৈশিষ্ট্য যুক্ত করেন , এটি কোনও একক গোপন স্তরের কয়েকটি গোপন নোডের ওজন চয়ন করার অনুরূপ। ঠিক পত্র নেই, যেহেতু সিগময়েড সহ মতো কোনও ফাংশন মডেল করতে একাধিক লুকানো নিউরন নিতে পারে may আপনি যখন নিউরাল নেটওয়ার্ক প্রশিক্ষণ করেন, আপনি এটির নিজের ইনপুট থেকে লুকানো লুকানো ওজন খুঁজে বের করতে দিন, যা আরও ভাল হওয়ার সম্ভাবনা রয়েছে। এটি আরও সময় নিতে পারে এবং এটি বেমানানও হতে পারে। আপনি অতিরিক্ত বৈশিষ্ট্যগুলির সাথে লজিস্টিক রিগ্রেশনের সান্নিধ্যের সাথে শুরু করতে পারেন এবং ইনপুট থেকে লুকানো ওজনকে ধীরে ধীরে প্রশিক্ষণ দিতে পারেন এবং শেষ পর্যন্ত অতিরিক্ত বৈশিষ্ট্যগুলির সাথে লজিস্টিক রিগ্রেশনের চেয়ে এটি আরও ভাল করা উচিত। সমস্যার উপর নির্ভর করে, প্রশিক্ষণের সময়টি নগণ্য বা প্রতিরোধমূলক হতে পারে।x31−1x3
একটি মধ্যবর্তী কৌশল হ'ল বিপুল সংখ্যক এলোমেলো নোডগুলি বেছে নেওয়া, আপনি যখন নিউরাল নেটওয়ার্ক শুরু করেন তখন এর অনুরূপ, এবং ইনপুট থেকে লুকানো ওজন ঠিক করে। *-থেকে-আউটপুট ওজনের উপর অপ্টিমাইজেশন রৈখিক থাকে। একে চূড়ান্ত লার্নিং মেশিন বলে । এটি কমপক্ষে পাশাপাশি মূল লজিস্টিক রিগ্রেশন হিসাবে কাজ করে।