মাল্টিক্লাসের জন্য লজিস্টিক রিগ্রেশন


10

মাল্টিক্লাসের জন্য লজিস্টিক রিগ্রেশনের মডেল পেয়েছি যা দ্বারা দেওয়া হয়েছে

পি(ওয়াই=|এক্স(আমি))=মেপুঃ(θটিএক্স(আমি))1+ +Σমি=1মেপুঃ(θমিটিএক্স(আমি))

যেখানে কে ক্লাসের সংখ্যা, থিটা অনুমান করার জন্য প্যারামিটার হল জেথ ক্লাস দ্বাদশ প্রশিক্ষণের ডেটা

ভাল একটি জিনিস আমি পেলাম না হ'ল ডিনোমিনেটর অংশ মডেলটি কীভাবে স্বাভাবিক করেছে। আমার অর্থ এটি সম্ভাব্যতা 0 এবং 1 এর মধ্যে স্থিত করে তোলে।

1+ +Σমি=1মেপুঃ(θমিটিএক্স(আমি))

মানে আমি লজিস্টিক রিগ্রেশন হওয়ার অভ্যস্ত

পি(ওয়াই=1|এক্স(আমি))=1/(1+ +মেপুঃ(-θটিএক্স(আমি)))

আসলে, আমি নোমালাইজেশন জিনিসটিতে বিভ্রান্ত হয়ে পড়েছি। এই ক্ষেত্রে যেহেতু এটি একটি সিগময়েড ফাংশন তাই এটি কখনই মান 0 এর চেয়ে কম বা 1 এর চেয়ে বেশি হতে দেয় না But তবে আমি বহু শ্রেণীর ক্ষেত্রে বিভ্রান্ত। এটা এমন কেন?

এটি আমার রেফারেন্স https://list.scms.waikato.ac.nz/pipermail/wekalist/2005- ফেব্রুয়ারি/ 029738 . html । আমি মনে করি এটি পি ( ওয়াই = | এক্স ( আই ) ) = এক্সপ্রেস ( θ টি জে এক্স ( i ) ) স্বাভাবিক করা উচিত ছিল

পি(ওয়াই=|এক্স(আমি))=মেপুঃ(θটিএক্স(আমি))Σমি=1মেপুঃ(θমিটিএক্স(আমি))

2
ওয়াই=1ওয়াই=01

1
আপনার অন্যান্য পোস্টগুলির উপর ভিত্তি করে আপনি কীভাবে সমীকরণগুলি চিহ্নিত করবেন তা জানেন। এখানে পাঠ্য সমীকরণগুলি পড়া কঠিন এবং (সাবস্ক্রিপ্টগুলি) বিভ্রান্তিকর - আপনি কি তাদের দিয়ে চিহ্নিত করতে পারেন?এলএকজনটিএক্স

2
যেহেতু আপনি এখানে অনেকগুলি প্রশ্ন পোস্ট করছেন, দয়া করে বিরতি দিন এবং ভাল প্রশ্নগুলি কীভাবে জিজ্ঞাসা করবেন সে সম্পর্কে আমাদের FAQ পড়ুন। জন্য সহায়তা পড়ুনটিএক্স

আমি এই সমীকরণটি সম্পাদনা করেছি @ @ হুইবার আসলে, আমি বাইনারি নয় মাল্টিক্লাস লজিস্টিক রিগ্রেশন সম্পর্কিত বিভ্রান্ত। আমি উদ্বিগ্ন, যখন আমি ডোনোমিনেটরে সমস্ত উপাদান যুক্ত করি তখন সম্ভাবনাটি স্বাভাবিক হয়
ব্যবহারকারী 34790

এক্স(আমি)

উত্তর:


13

কেকে>2কে-1কে

পি(Yআমি=কে|এক্সআমি)=1-Σ=1কে-1পি(Yআমি=|এক্সআমি)
পি(Yআমি=|এক্সআমি)=মেপুঃ(θআমিটিএক্সআমি)Σআমি=1কেমেপুঃ(θআমিটিএক্সআমি)
কেθকে=(0,...,0)টি
Σআমি=1কেমেপুঃ(θআমিটিএক্সআমি)=মেপুঃ(0)+ +Σআমি=1কে-1মেপুঃ(θআমিটিএক্সআমি)=1+ +Σআমি=1কে-1মেপুঃ(θআমিটিএক্সআমি)
<কে
পি(Yআমি=|এক্সআমি)=মেপুঃ(θআমিটিএক্সআমি)1+ +Σআমি=1কে-1মেপুঃ(θআমিটিএক্সআমি)

4
মনে রাখবেন যে রেফারেন্স ক্লাসের পছন্দটি গুরুত্বপূর্ণ নয়, যদি আপনি সর্বাধিক সম্ভাবনা করছেন। তবে আপনি যদি শাস্তিযুক্ত সর্বাধিক সম্ভাবনা বা বেইসিয়ান অনুমান করছেন, তবে সম্ভাব্যতাগুলি অতিরিক্ত-প্যারামিটারাইজড রেখে দেওয়াই প্রায়শই বেশি কার্যকর let এর কারণ, বেশিরভাগ পেনাল্টি ফাংশন / প্রিজনরা রেফারেন্স ক্লাসের পছন্দটি সম্পর্কে সম্মতিযুক্ত নয়
সম্ভাব্যতা

আমিআমি

4

-1মেপুঃ(0)θ=0

θ1এক্স=

মেপুঃ()মেপুঃ(0)+ +মেপুঃ()=মেপুঃ(0)মেপুঃ(0)+ +মেপুঃ(-)=11+ +মেপুঃ(-)
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.