একটি জিএলএম-এ, স্যাচুরেটেড মডেলের লগের সম্ভাবনা কি সর্বদা শূন্য?


14

জেনারেলাইজড লিনিয়ার মডেলটির আউটপুট অংশ হিসাবে, নাল এবং অবশিষ্টাংশ বিচ্যুতি মডেল মূল্যায়ন করতে ব্যবহৃত হয়। আমি প্রায়শই এই পরিমাণগুলির জন্য সূত্রগুলিকে স্যাচুরেটেড মডেলের লগ সম্ভাবনার শর্তে দেখি, উদাহরণস্বরূপ: /stats//a/113022/22199 , লজিস্টিক রিগ্রেশন: কীভাবে একটি স্যাচুরেটেড মডেল পাবেন?

স্যাচুরেটেড মডেল, যতদূর আমি এটি বুঝতে পারি, এমন মডেল যা পর্যবেক্ষণ করা প্রতিক্রিয়াটিকে পুরোপুরি ফিট করে। সুতরাং, বেশিরভাগ জায়গায় আমি দেখেছি, স্যাচুরেটেড মডেলের লগ-সম্ভাবনা সর্বদা শূন্য হিসাবে দেওয়া হয়।

তবুও, বিচ্যুততার সূত্রটি যেভাবে দেওয়া হয়েছে তা থেকে বোঝা যায় যে কখনও কখনও এই পরিমাণটি শূন্য নয়। (যেন এটি সর্বদা শূন্য থাকে তবে কেন এটি অন্তর্ভুক্ত করবেন?)

কোন ক্ষেত্রে এটি শূন্য নয়? যদি এটি কখনই শূন্য হয় না তবে কেন এটি বিচ্যুতির সূত্রে অন্তর্ভুক্ত করবেন?

উত্তর:


18

আপনি যদি সত্যিই লগ-সম্ভাবনা বোঝাতে চান তবে উত্তরটি হ'ল: এটি সর্বদা শূন্য নয়।

উদাহরণস্বরূপ, পয়সন ডেটা বিবেচনা করুন: । জন্য লগ-সম্ভাবনা দেওয়া হয়েছে: Y = ( y 1 , , y n ) ( μ ; Y ) = - n i = 1 μ i + n i = 1 y i লগyiPoisson(μi),i=1,,nY=(y1,,yn)

()(μ;Y)=i=1nμi+i=1nyilogμii=1nlog(yi!).

পার্থক্য মধ্যে সম্মান সঙ্গে করুন এবং এটি সেট (এইভাবে আমরা সম্পৃক্ত মডেল জন্য MLE প্রাপ্ত হয়): জন্য এই সমস্যার সমাধানের পেতে , বদলে ফিরে জন্য দেয় সম্পৃক্ত মডেলের লগ-সম্ভাবনা হল: যদি খুব বিশেষ না নেয় মান।( ) μ i 0 - 1 + y i(μ;Y)()μi0μআমি μ আমি=Yআমি μ আমি(*)μআমি( μ ;ওয়াই)= Σ আমি=1Yআমি(লগ ইন করুনYআমি-1)-এন Σ আমি=1লগ(yi!)0yi

1+yiμi=0.
μiμ^i=yiμ^i()μi
(μ^;Y)=i=1nyi(logyi1)i=1nlog(yi!)0
yi

আইটেমের অধীনে Rফাংশনের সহায়তা পৃষ্ঠায় নথিটি এই বিষয়টিকে নিম্নরূপ ব্যাখ্যা করেছে:glmdeviance

deviance একটি ধ্রুবক পর্যন্ত, সর্বাধিক লগ সম্ভাবনা দ্বিগুণ। যেখানে বোধগম্য, ধ্রুবকটি এমনভাবে বেছে নেওয়া হয়েছে যাতে কোনও স্যাচুরেটেড মডেলের বিচ্যুতি শূন্য থাকে।

লক্ষ্য করুন যে এটি উল্লেখ করেছে যে স্যাচুরেটেড মডেলের লগ-সম্ভাবনার পরিবর্তে বিচ্যুতি শূন্য হতে বেছে নেওয়া হয়েছে।

সম্ভবত, আপনি যা সত্যই নিশ্চিত করতে চেয়েছিলেন তা হ'ল " স্যাচুরেটেড মডেলের বিচ্যুতি সর্বদা শূন্য হিসাবে দেওয়া হয়", যা সত্য, বিচ্যুতি থেকে সংজ্ঞা অনুসারে ( অ্যালান দ্বারা বিভাগীয় ডেটা অ্যানালাইসিসের ২ য় সংস্করণ দেখুন (২ য় সংস্করণ) অ্যাগ্রেস্তি) স্যাচুরেটেড মডেলের নির্দিষ্ট জিএলএমের সম্ভাবনা অনুপাতের পরিসংখ্যান। constantআর ডকুমেন্টেশনে উপরোক্ত আসলে সম্পৃক্ত মডেলের দুইবার maximized লগ-সম্ভাবনা নেই।

আপনার বক্তব্য প্রসঙ্গে "তা সত্ত্বেও, পথ বক্রতা জন্য সূত্র দেওয়া হয় বলে যে কখনও কখনও এই পরিমাণ অ শূন্য।", এটি সম্ভবত শব্দটি ব্যবহার অপব্যবহার কারণে বক্রতা । উদাহরণ হিসেবে বলা যায়, আর দুই তুলনা সম্ভাবনা অনুপাত পরিসংখ্যাত নির্বিচারে (নেস্টেড) মডেলের এবং এছাড়াও বক্রতা, যা আরো স্পষ্ট করে বলা যেতে করবে উল্লেখ করা হয় পার্থক্য এর বক্রতা মধ্যে এবং বক্রতা , যদি আমরা অ্যাগ্রেস্টির বইয়ে দেওয়া সংজ্ঞাটি নিবিড়ভাবে অনুসরণ করেছিল।এম 2 এম 1 এম 2M1M2M1M2

উপসংহার

  1. স্যাচুরেটেড মডেলের লগ-সম্ভাবনা সাধারণত শূন্য নয়।

  2. স্যাচুরেটেড মডেলের বিচ্যুতি (তার মূল সংজ্ঞায়) শূন্য।

  3. বক্রতা যেমন আসলে অন্য কিছু (deviances মধ্যে পার্থক্য) মানে সফটওয়্যার থেকে আউটপুট (যেমন আর হিসাবে) সাধারণ নন-জিরো হয়।


নিম্নলিখিত সাধারণ ক্ষতিকারক-পারিবারিক কেস এবং অন্য একটি সুনির্দিষ্ট উদাহরণ জন্য ডেরাইভেশন। ধরুন যে ডেটা সূচকীয় পরিবার থেকে আসা (দেখুন এস সঙ্গে আধুনিক ফলিত পরিসংখ্যান , অধ্যায় ): যেখানে পূর্বে ওজন ও পরিচিত হয় বিচ্ছুরণ / স্কেলের মাপদণ্ড হয় (যেমন দ্বিপদ এবং পইসন যেমন অনেক ক্ষেত্রে জন্য, এই প্যারামিটার হয়, পরিচিত যখন যেমন স্বাভাবিক এবং গামা যেমন অন্যান্য ক্ষেত্রে জন্য, এই প্যারামিটার অজানা হয় না)। তারপরে লগ-সম্ভাবনা দেওয়া হয়েছে: 7

(1)f(yi;θi,φ)=exp[Ai(yiθiγ(θi))/φ+τ(yi,φ/Ai)].
Aiφ
(θ,φ;Y)=i=1nAi(yiθiγ(θi))/φ+i=1nτ(yi,φ/Ai).
পোইসন উদাহরণ হিসাবে, স্যাচুরেটেড মডেলের প্যারামিটারগুলি নিম্নলিখিত স্কোর ফাংশনটি সমাধান করে অনুমান করা যায় :
0=U(θi)=(θ,φ;Y)θi=Ai(yiγ(θi))φ

উপরের সমীকরণের সমাধানটিকে , তারপরে স্যাচুরেটেড মডেলের লগ-সম্ভাবনার সাধারণ রূপটি (স্কেল প্যারামিটারটিকে ধ্রুবক হিসাবে বিবেচনা করুন): θ^i

()(θ^,φ;Y)=i=1nAi(yiθ^iγ(θ^i))/φ+i=1nτ(yi,φ/Ai).

আমার পূর্ববর্তী উত্তরে, আমি ভুলভাবে বলেছি যে এর ডানদিকে প্রথম শব্দটি সর্বদা শূন্য, উপরের পোইসন ডেটা উদাহরণটি প্রমাণ করে যে এটি ভুল। আরও জটিল উদাহরণের জন্য পরিশিষ্টে দেওয়া গামা বিতরণ ।()Γ(α,β)


স্যাচুরেটেড গামা মডেলটির লগ-সম্ভাবনার ক্ষেত্রে প্রথম পদটির প্রমাণ অ-শূন্য : প্রদত্ত আমাদের অবশ্যই প্রথমে পুনঃনির্ধারণ করতে হবে যাতে এর ক্ষতিকারক পারিবারিক রূপ । যদি দেওয়া হয় তা যাচাই করা যায় তবে এর প্রতিনিধিত্ব রয়েছে: যেখানে

f(y;α,β)=βαΓ(α)eβyyα1,y>0,α>0,β>0,
f(1)
φ=1α,θ=βα,
f
f(y;θ,φ)=exp[θy(log(θ))φ+τ(y,φ)],
τ(y,φ)=logφφ+(1φ1)logylogΓ(φ1).
অতএব, স্যাচুরেটেড মডেলের MLEs হয় । অতএব যদি না খুব বিশেষ মান না নেয়।θ^i=1yi
i=1n1φ[θ^iyi(log(θ^i))]=i=1n1φ[1log(yi)]0,
yi

1
যদি মডেলটি সম্ভাব্য প্রতিটি ফলাফলের 100% সম্ভাবনা নির্ধারণ করতে পারে তবে লগলিস্টিওলিওটি কি শূন্য?
অ্যালেক্স

আপনি কী বলতে চেয়েছিলেন তা আমি পুরোপুরি বুঝতে পারি না। তবে আমার উত্স থেকে আপনি এই সিদ্ধান্তটি নিতে পারেন যে এটি হয় এবং কেবলমাত্র যদি অভিন্ন এবং কোনও বিচ্ছুরণ প্যারামিটার না থাকে। 0τ0
Zhanxiong

আপনার ডেরাইভেশনটি খুব ভাল তবে আনুষ্ঠানিক প্রমাণটি এই মুহূর্তে আমার মাথা থেকে কিছুটা উপরে। পোইসন মডেলটির সাথে আপনার উদাহরণের জন্য আপনাকে ধন্যবাদ। আমি এই উদাহরণটি যা নিয়েছি তা হ'ল পোইসন মডেল পোয়েসনের কোনও মান বিবেচিত পর্যবেক্ষণের ফলাফলের জন্য 100% সম্ভাবনা নির্ধারণ করতে পারে না, সুতরাং সম্ভাবনাটি শূন্য হতে পারে না।
অ্যালেক্স

বিবৃতি "মডেল পর্যবেক্ষণের ফলাফলের সম্ভাব্যতা দেয়" আমার কাছে অদ্ভুত লাগে sounds আপনি কি বোঝাতে চেয়েছেন যে , এবং যদি এলোমেলো পরিবর্তনশীল হয় তবে ? 100%y1,,ynYP(Y=y1)+P(Y=y2)++P(Y=yn)<1
Zhanxiong

1
আমি যা বোঝাতে চেয়েছি তা হ'ল যদি পয়সন এলোমেলো পরিবর্তনশীল হয় তবে কোনও বা পোইসনের জন্য অর্থ, এইভাবে এমন কোনও মডেল প্যারামিটার খুঁজে পাওয়া অসম্ভব যা পর্যবেক্ষণকারীদের শূন্যের লগ সম্ভাবনা দেয় is । একটি স্যাচুরেটেড মডেলের ধারণাটি আমি পুরোপুরি ভুল বুঝছি। YP(Y=yi)<1i
অ্যালেক্স

4

ঝাংসিওনগের উত্তর ইতিমধ্যে দুর্দান্ত (+1), তবে এখানে একটি তাত্ক্ষণিক প্রমাণ রয়েছে যে লজিস্টিক রিগ্রেশনের জন্য স্যাচুরেটেড মডেলের লগ-সম্ভাবনা । আমি অনুভব করেছি যে আমি পোস্ট করব কারণ আমি এই সাইটে এই টেক্সটিকে দেখিনি এবং কারণ আমি এইগুলি কেবল একটি বক্তৃতার জন্য লিখেছি।0

সম্ভাবনা হ'ল যেখানে ।

(1)L(y;X,β)=i=1nf(yi;xi,β)=i=1nπiyi(1πi)1yi=i=1n(πi1πi)yi(1πi)
πi=invlogit(xiβ)

লগ-সম্ভাবনা হ'ল

logL(y;X,β)=i=1nyilog(πi1πi)+log(1πi)=i=1nyilogit(πi)+log(1πi)=i=1nyixiβ+log(1invlogit(xiβ))=i=1nyixiβ+log(invlogit(xiβ))=i=1nyixiβlog(1+exp[xiβ]))

আপনি যদি সহগের সমস্তটির সাথে সম্মান নিয়ে ডেরিভেটিভস গ্রহণ করেন তবে আপনি

(2)(β)=i=1nyixiexp[xiβ](1+exp[xiβ])xi.

এই অভিব্যক্তিটি equal এর সমান করে সেট করা এবং for এর জন্য সমাধান করা আপনাকে উত্তর দেবে। সাধারণত এটি বিশ্লেষণাত্মকভাবে করা যায় না, যা এই মডেলটির সাথে ফিট করার জন্য পুনরাবৃত্ত অ্যালগরিদমগুলি ব্যবহার করার জনপ্রিয়তা / প্রয়োজনীয়তার ব্যাখ্যা দেয় তবে একটি স্যাচুরেটেড মডেলের ক্ষেত্রে এটি সম্ভব।0β

স্যাচুরেটেড মডেলটি সন্ধান করার জন্য, আমরা প্রতিটি সারিটি এটির নিজস্ব সহগ দিয়ে থাকি। সুতরাং and এবং ডিজাইনের ম্যাট্রিক্সের বার সহগ ভেক্টরটি হ'ল βRn

Xβ=[100010001][β1β2βn].

দ্রষ্টব্য যে বিশেষত, ।xiβ=βi

সুতরাং সমীকরণের তম সারিতে (2) নেওয়া আমাদের j

i=1nyixi,j=i=1nexp[xiβ](1+exp[xiβ])xi,j

যা একমাত্র সত্য হতে পারে প্রতিটি পর্যবেক্ষণ জন্য :i

yi=invlogit(βi)
বা অন্য কথায় প্রতিটি প্লাস বা মাইনাস অনন্ত হয় (যদি হয় বা যথাক্রমে)। সর্বাধিক সম্ভাবনা পাওয়ার জন্য আমরা এই পরামিতিগুলিকে আবার (1) এ প্লাগ করতে পারি: স্পষ্টতই এর লগ ।βiyi10
i=1nπ^iyi(1π^i)1yi=1n=1.
0


তবে এটি নিবন্ধিত ডেটা ধরে নিয়েছে । আপনার যদি (এবং একই সমবায় মানগুলি) এর সাথে গোষ্ঠীগুলি রয়েছে (ফর্মটি ব্যবহার করে আর, ফোরেক্সাম্পল ) তবে স্যাচুরেটেড মডেলটির লগ লাইক সম্ভাবনা শূন্য নেই। ni>1glm( cbind(k, n-k) ~ x + ...
কেজেটিল বি হালওয়ারসেন

@ কেজেটিভালভর্সেন ওহ ভাল পয়েন্ট আমি কখনই চেষ্টা করিনি যে আমাকে পরীক্ষা করতে দিন
টেলর

1

@ অ্যালেক্স: হ্যাঁ, ঠিক আছে। কমপক্ষে পৃথক বিতরণের জন্য। অবিচ্ছিন্ন বিতরণের জন্য, এটি ঘনত্বকে 1 সমান হতে দেয়, যা প্রয়োজনীয় অর্থবহ নয় এবং তাই চেষ্টা করার এবং অর্জন করার জন্য কোনও বুদ্ধিমান জিনিস নয়। আরও কিছুটা সাধারণভাবে, স্যাচুরেটেড মডেলের লগ-সম্ভাবনা আপনাকে অন্তর্নিহিত বিতরণ পরিবারের অনুমান অনুসরণ করে এমন কোনও মডেলটির কার্য সম্পাদনের জন্য একটি উচ্চতর গন্ডী দেয়। অন্য কথায়, প্রদত্ত ডেটা সেট (এক্স, ওয়াই) দ্বিপাক্ষিক বলে ধরে নিয়ে স্যাচুরেটেড দ্বিপদী মডেলটির লগ-সম্ভাবনা এটি "যত ভাল হয় ততই ভাল"। আপনার গ্ল্যাম মডেলটিকে এই উপরের সীমার সাথে 100% (বা অনুরূপ) এর বিপরীতে তুলনা করা অর্থহীন, কারণ আপনার মডেলটি সহজাতভাবে প্রতিক্রিয়া বিতরণের উপর আপনার অনুমান দ্বারা সীমাবদ্ধ।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.