লজিস্টিক রিগ্রেশন এবং সম্ভাবনা বোঝা


12

লজিস্টিক রিগ্রেশনটির প্যারামিটারের অনুমান / প্রশিক্ষণটি কীভাবে কাজ করে? আমি এ পর্যন্ত যা পেয়েছি তা রাখার চেষ্টা করব।

  1. আউটপুট হ'ল x: উপর নির্ভর করে সম্ভাবনার আকারে লজিস্টিক ফাংশনের আউটপুট
    P(y=1|x)=11+eωTxσ(ωTx)
    P(y=0|x)=1P(y=1|x)=111+eωTx
  2. একটি মাত্রার জন্য তথাকথিত ওডসগুলি নিম্নরূপে সংজ্ঞায়িত করা হয়েছে:
    p(y=1|x)1p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1x
  3. logলিনিয়ার আকারে এখন ডাব্লু_0 এবং ডাব্লু_1 পেতে ফাংশনটি যুক্ত করুন :
    Logit(y)=log(p(y=1|x)1p(y=1|x))=ω0+ω1x
  4. এখন সমস্যাটির অংশটি সম্ভাবনাটি ব্যবহার করে (বড় এক্স হ'ল) কেউ কি বলতে পারে যে আমরা y = 1 এর সম্ভাবনা কেন দু'বার বিবেচনা করছি? যেহেতু:
    এল(এক্স|পি)=Πআমি=1,Yআমি=1এনপি(এক্সআমি)Πআমি=1,Yআমি=0এন(1-পি(এক্সআমি))
    পি(Y=0|এক্স)=1-পি(Y=1|এক্স)

এবং এটি থেকে কীভাবে the এর মান পাওয়া যায়?

উত্তর:


10

সাধারণভাবে ধরে নিন যে আপনি ফর্মের একটি মডেল নেওয়ার সিদ্ধান্ত নিয়েছেন

পি(Y=1|এক্স=এক্স)=(এক্স;Θ)

কিছু প্যারামিটারের জন্য । তারপরে আপনি কেবল এর সম্ভাবনাটি লিখে রাখুন, অর্থাত্‍Θ

L(Θ)=i{1,...,N},yi=1P(y=1|x=x;Θ)i{1,...,N},yi=0P(y=0|x=x;Θ)

যা হিসাবে একই

এল(Θ)=Πআমি{1,,এন},Yআমি=1পি(Y=1|এক্স=এক্স;Θ)Πআমি{1,,এন},Yআমি=0(1-পি(Y=1|এক্স=এক্স;Θ))

এখন আপনি 'অনুমান' (মডেল) করার সিদ্ধান্ত নিয়েছেন

পি(Y=1|এক্স=এক্স)=σ(Θ0+ +Θ1এক্স)

যেখানে

σ(z- র)=1/(1+ +-z- র)

সুতরাং আপনি কেবলমাত্র সম্ভাবনার সূত্রটি গণনা করুন এবং , উদাহরণস্বরূপ, নিউটোনস পদ্ধতি বা অন্য কোনও গ্রেডিয়েন্ট ভিত্তিক পদ্ধতিটি সন্ধান করার জন্য অপ্টিমাইজেশন অ্যালগরিদমটি করুন ।argmaxΘএল(Θ)

কখনও কখনও লক্ষ্য করুন যে, লোকেরা বলে যে তারা যখন লজিস্টিক রিগ্রেশন করছে তখন তারা সম্ভাবনা সর্বাধিক করে না (যেমন আমরা / আপনি উপরে করেছেন) বরং তারা ক্ষতির ফাংশনটি হ্রাস করে

(Θ)=-Σআমি=1এনYআমিলগ(পি(ওয়াইআমি=1|এক্স=এক্স;Θ))+ +(1-Yআমি)লগ(পি(ওয়াইআমি=0|এক্স=এক্স;Θ))

তবে লক্ষ্য করুন ।-লগ(এল(Θ))=(Θ)

এটি মেশিন লার্নিংয়ের একটি সাধারণ প্যাটার্ন: ব্যবহারিক দিক (হিউরিস্টিক মডেলটি কীভাবে 'ভুল' তা মাপার ক্ষতির ফাংশনগুলি হ্রাস করা) আসলে 'তাত্ত্বিক দিকের' সমান ( সিম্বোলের সাথে স্পষ্টভাবে মডেলিং করা , যেমন পরিসংখ্যানের পরিমাণকে সর্বাধিক করে তোলা সম্ভাবনাগুলি) এবং প্রকৃতপক্ষে, অনেকগুলি মডেল যা সম্ভাব্যতাগুলির মতো দেখতে লাগে না (উদাহরণস্বরূপ এসভিএমগুলি) একটি সম্ভাব্য প্রেক্ষাপটে পুনরায় বিবেচনা করা যেতে পারে এবং প্রকৃতপক্ষে সম্ভাবনার সর্বাধিককরণ হয়।পি


@ উত্তরটি উত্তরের জন্য ধন্যবাদ তবে আমার এখনও কিছুটা ব্যাখ্যা দরকার st প্রথমত আপনি কি পৃথিবীতে 2 on সংজ্ঞায় থাকতে পারেন তা আমি ব্যাখ্যা করতে পারি যেহেতু আমি বুঝতে পেরেছি আমি এর ক্ষেত্রেই আন্তঃআযোগিত করছি । এবং কিভাবে মান পেতে পারেন এবং আপনার সাহায্যের দোর অনেক ধন্যবাদ! এল ( θ ) Y আমি = 1 ω 1 ω 0Πএল(θ)Yআমি=1ω1ω0
ইঞ্জিন

@Engine: বড় 'পাই' একটি পণ্য ... মত একটি বড় সিগমা একটি সমষ্টি ... আপনি বুঝতে বা ভাল হিসাবে আপনি আরো যে শোধন প্রয়োজন করব? দ্বিতীয় প্রশ্নে: আসুন আমরা বলি যে আমরা একটি ফাংশন কমিয়ে আনতে চাই f ( x ) = x 2 এবং আমরা শুরু করব তবে আমাদের ধরে নেওয়া যাক আমরা জানি না / প্রকাশ করতে পারি না / চাক্ষুষ করতে পারি না কারণ এটি জটিল । এখন ব্যুৎপন্ন হয় । মজার বিষয়টি যদি আমরা ন্যূনতম থেকে ডান হয় তবে এটি ডান দিকে নির্দেশ করে এবং যদি আমরা এর বাম থেকে থাকে তবে এটি বাম দিকে নির্দেশ করে। গাণিতিকভাবে ডেরিভেটিভ পয়েন্টগুলি 'শক্তিশালী আরোহনের' দিকে নির্দেশ করেΣ(এক্স)=এক্স2f f f = 2 x x = 0এক্স=3'=2এক্সএক্স=0
ফ্যাবিয়ান ওয়ার্নার

@Engine: আরও মাত্রা আপনি ব্যুৎপন্ন গ্রেডিয়েন্ট দ্বারা, প্রতিস্থাপন অর্থাত আপনি একটি র্যান্ডম সময়ে চলতে শুরু এবং গনা গ্রেডিয়েন্ট এ এবং তারপর আপনি আপনার পরবর্তী বিন্দু পূর্ণবিস্তার করতে চান তাহলে হয় । তারপর আপনি গনা এবং আপনার পরবর্তী হয় এবং তাই ঘোষণা। এটিকে গ্রেডিয়েন্ট আরোহ / ডেসেন্ট বলা হয় এবং এটি একটি ফাংশন সর্বাধিক সর্বাধিক সাধারণ কৌশল। এখন আপনি যে না অথবা আপনার স্বরলিপি অনুক্রমে এটি যে maxeimizesf x x 1 x 1 = x 0 + f ( x 0 ) f ( x 1 ) x x 2 = x 1 + f ( x 1 ) এল ( Θ ) এল ( ω ) ω এলএক্স0এক্সএক্স1এক্স1=এক্স0+ +(এক্স0)(এক্স1)এক্সএক্স2=এক্স1+ +(এক্স1)এল(Θ)এল(ω)ωএল
ফ্যাবিয়ান ওয়ার্নার

@ ইঞ্জিন: আপনি ক্ষেত্রে মোটেই আগ্রহী নন ! আপনি '' যা 'আপনার ডেটাকে সর্বোত্তমভাবে ব্যাখ্যা করে'। আউ থেকে মডেলটি 'নিজের পক্ষে কথা বলুক' এবং এর ক্ষেত্রে ফিরে আসুক তবে প্রথমে আপনাকে মডেল সেটআপ করতে হবে! এখানে, 'সর্বোত্তম ব্যাখ্যা' এর অর্থ 'সর্বোচ্চ সম্ভাবনা থাকা' কারণ এটিই লোকেরা নিয়ে এসেছিল (এবং আমি মনে করি এটি খুব স্বাভাবিক) ... তবে, অন্যান্য মেট্রিকগুলি রয়েছে (লোকসানের বিভিন্ন ক্ষতি এবং তাই) যেগুলি পারে ব্যবহার করি! সেখানে কারণ আমরা চাই মডেল ব্যাখ্যা করতে দুই পণ্য পাশাপাশি যেমন 'ভালো'! ω ω y = 1 y = 1 y = 0Y=1ωωY=1Y=1 Y=0
ফ্যাবিয়ান ওয়ার্নার

8

আপনার সম্ভাবনা ফাংশন (4) দুটি অংশ নিয়ে গঠিত: আপনার নমুনায় কেবলমাত্র সেই ব্যক্তিদেরই যারা সাফল্য পেয়েছিলেন তাদের সাফল্যের সম্ভাবনার পণ্য এবং আপনার নমুনায় কেবলমাত্র সেই ব্যাক্তি যারা ব্যর্থতা অনুভব করেছেন তাদের ব্যর্থতার সম্ভাবনার পণ্য। প্রদত্ত যে প্রত্যেকে পৃথক হয় সফলতা বা ব্যর্থতা অনুভব করে তবে উভয়ই নয়, সম্ভাব্যতা প্রতিটি ব্যক্তির জন্য একবারে উপস্থিত হবে। এটা কী এবং গড় পণ্যের লক্ষণ নীচে।, y i = 0,Yআমি=1,Yআমি=0

সহগগুলি (1) (4) এ প্রতিস্থাপনের মাধ্যমে সম্ভাবনা কার্যে অন্তর্ভুক্ত করা হয়। এইভাবে সম্ভাবনা ফাংশন একটি । সর্বাধিক সম্ভাবনার পয়েন্ট হ'ল খুঁজে পাওয়া যা সম্ভাবনা সর্বাধিক করে তোলে।ωωω


Yআমি=0ω

Πআমি=1,Y=1এনআমি=1এনY=1

সম্ভাবনা ফাংশনটি সর্বাধিক করার জন্য অনেকগুলি সম্ভাব্য অ্যালগরিদম রয়েছে। নিউটন-রাফসন পদ্ধতিতে সর্বাধিক প্রচলিত একটিতে প্রকৃতপক্ষে প্রথম এবং দ্বিতীয় ডেরিভেটিভগুলি গণনা করা।
মার্টেন
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.