"বৈশিষ্ট্য এবং শ্রেণীর মধ্যে প্যারামিটারগুলি ভাগ করা" এর অর্থ কী


20

এই কাগজটি পড়ার সময় একটি লাইন রয়েছে যা বলে যে "লিনিয়ার শ্রেণিবদ্ধীরা বৈশিষ্ট্য এবং শ্রেণীর মধ্যে প্যারামিটারগুলি ভাগ করে না not" এই বক্তব্যটির অর্থ কী? এর অর্থ কি লজিস্টিক রিগ্রেশন এর মতো লিনিয়ার শ্রেণিবদ্ধের এমন বৈশিষ্ট্যগুলির প্রয়োজন যা পারস্পরিক স্বতন্ত্র?

উত্তর:


22

আমি লজিস্টিক রিগ্রেশন এর মাধ্যমে এই প্রশ্নের উত্তর দেওয়ার চেষ্টা করব , অন্যতম সহজ লিনিয়ার শ্রেণিবদ্ধী।

লজিস্টিক রিগ্রেশনের সহজতম ক্ষেত্রে হ'ল যদি আমাদের কাছে বাইনারি শ্রেণিবদ্ধকরণ কার্য থাকে ( y{0,1}) এবং কেবলমাত্র একটি ইনপুট বৈশিষ্ট্য ( xR )। এই ক্ষেত্রে লজিস্টিক রিগ্রেশন আউটপুট হবে:

y^=σ(wx+b)
যেখানে এবং উভয়ই স্কেলার । মডেলের আউটপুট সম্ভাব্যতার সাথে মিলে যায় যে ক্লাস ।wbএক্স1Y^[0,1]এক্স1

আমরা "লিনিয়ার ক্লাসিফায়ারগুলি বৈশিষ্ট্য এবং শ্রেণীর মধ্যে প্যারামিটারগুলি ভাগ করে না" এই বাক্যাংশটি দুটি ভাগে বিভক্ত করার চেষ্টা করব । লজিস্টিক রিগ্রেশন যে কোনও কাজের জন্য প্যারামিটারগুলি ভাগ করে কিনা তা আমরা আলাদাভাবে একাধিক বৈশিষ্ট্য এবং একাধিক শ্রেণীর কেসগুলি পরীক্ষা করব will

লিনিয়ার শ্রেণিবদ্ধীরা কি বৈশিষ্ট্যের মধ্যে প্যারামিটারগুলি ভাগ করে?

এই ক্ষেত্রে, প্রতিটি উদাহরণস্বরূপ, স্কেলের যে বাইনারি মান (আগের মত) লাগে, যখন একটি হল ভেক্টর দৈর্ঘ্যের (যেখানে বৈশিষ্ট্য সংখ্যা)। এখানে, আউটপুটটি ইনপুট বৈশিষ্ট্যগুলির একটি লিনিয়ার সংমিশ্রণ (অর্থাত্ এই বৈশিষ্ট্যগুলির অতিরিক্ত বায়াসগুলি) ightedx N NYএক্সএনএন

x w N xw w i x i

Y^=σ(Σআমিএন(Wআমিএক্সআমি)+ +)Rσ(Wএক্স+ +)
যেখানে এবং দৈর্ঘ্যের এর ভেক্টর । পণ্য একটি স্কেলার উত্পাদন করে। আপনি উপরে থেকে দেখতে পাচ্ছেন যে প্রতিটি ইনপুট বৈশিষ্ট্য জন্য আলাদা ওজন এবং এই সমস্ত উপায়ে স্বাধীন । এটি থেকে আমরা উপসংহারে পৌঁছাতে পারি যে বৈশিষ্ট্যের মধ্যে কোনও প্যারামিটার ভাগ করে নেওয়া হচ্ছে নাএক্সWএনএক্সW Wআমিএক্সআমি

লিনিয়ার শ্রেণিবদ্ধীরা ক্লাসগুলির মধ্যে পরামিতিগুলি ভাগ করে?

এই ক্ষেত্রে স্কেলের অবশ্য হয় একটি হল ভেক্টর দৈর্ঘ্যের (যেখানে ক্লাস সংখ্যা)। এটি মোকাবেলায় লজিস্টিক রিগ্রেশন মূলত প্রতিটি ক্লাসের জন্য আলাদা আউটপুট উত্পাদন করে । প্রতিটি আউটপুট একটি স্কেলার is এবং ক্লাস এর সাথে সম্পর্কিত এর সম্ভাবনার সাথে মিলে যায় ।y এমএক্সYএমএমYএমY[0,1]এক্স

Y^=Wএক্স+ +,WRY^=Y^1,Y^2,,Yএম

এটিকে ভাবার সবচেয়ে সহজ উপায় হ'ল সহজ স্বাধীন লজিস্টিক রিগ্রেশনগুলির প্রতিটি যার আউটপুট রয়েছে:এম

Y^=σ(Wএক্স+ +)

উপরের দিক থেকে স্পষ্টতই বোঝা যায় যে বিভিন্ন শ্রেণীর মধ্যে কোনও ওজন ভাগ করা হয়নি

বহু বৈশিষ্ট্য এবং বহু শ্রেণীর :

উপরের দুটি ক্ষেত্রে একত্রিত করে আমরা শেষ পর্যন্ত একাধিক বৈশিষ্ট্য এবং একাধিক শ্রেণির সর্বাধিক সাধারণ ক্ষেত্রে পৌঁছতে পারি:

Y এমxএন

Y^=σ(ওয়াটএক্স+ +)
যেখানে একটি আকার সঙ্গে একটি ভেক্টর হয় , একটি আকার সঙ্গে একটি ভেক্টর হয় , আকারের একটি ভেক্টর এবং একটি ম্যাট্রিক্স ।Y^এমএক্সএনএমওয়াট(এন×এম)

যে কোনও ক্ষেত্রে, লিনিয়ার শ্রেণিবদ্ধীরা বৈশিষ্ট্য বা শ্রেণীর মধ্যে কোনও পরামিতি ভাগ করে না

আপনার দ্বিতীয় প্রশ্নের উত্তর দেওয়ার জন্য, রৈখিক ক্লাসিফায়ার একটি অন্তর্নিহিত ধৃষ্টতা যে বৈশিষ্ট্য স্বাধীন হতে হবে আছে যাইহোক, এই হয়, না কি কাগজের লেখক বলতে উদ্দেশ্যে।


1
সুন্দর ব্যাখ্যা। :)
জয়দীপ ভট্টাচার্য
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.