কোনও এম-এসিমেটরের অভিজ্ঞতামূলক হেসিয়ান কি অনির্দিষ্ট হতে পারে?


15

জেফ্রি ওয়াল্ড্রিজ তার ক্রোনার বিভাগ এবং প্যানেল ডেটার একনোমেট্রিক বিশ্লেষণে (পৃষ্ঠা 357) বলেছেন যে অনুশীলনমূলক হেসিয়ান "যে নির্দিষ্ট নমুনার সাথে আমরা কাজ করছি তার জন্য ইতিবাচক নির্দিষ্ট বা এমনকি ইতিবাচক অর্ধসীমা হওয়ার নিশ্চয়তা নেই"।

এটি আমার কাছে (সংখ্যাগত সমস্যাগুলি বাদ দিয়ে) ভুল বলে মনে হচ্ছে এম-এসিমেটরের সংজ্ঞা হিসাবে প্যারামিটারের মান হিসাবে প্রদত্ত নমুনাটির উদ্দেশ্যগত ফাংশনকে ন্যূনতম করে এবং সুপরিচিত সত্য হিসাবে হেসিয়ানকে অবশ্যই ইতিবাচক অর্ধসীমা হতে হবে সর্বনিম্ন (স্থানীয়) হেসিয়ানটি ইতিবাচক অর্ধ-চূড়ান্ত।

আমার যুক্তি কি ঠিক?

[সম্পাদনা: দ্বিতীয় সংস্করণে বিবৃতিটি সরানো হয়েছে। বইয়ের. মন্তব্য দেখুন।]

পটভূমি যে ধরুন θ এনθ^N একটি মূল্নির্ধারক কমানোর দ্বারা প্রাপ্ত হয়

1Ni=1Nq(wi,θ),
যেখানেwi উল্লেখ করেi -th পর্যবেক্ষণ।

আসুন h , h ( q , θ ) i j = দ্বারা এর হেসিয়ানকে বোঝানqH

H(q,θ)ij=2qθiθj

এর মধ্যে asymptotic সহভেদাংক θ এন জড়িত [ এইচ ( কুই , θ 0 ) ] যেখানে θθ^nE[H(q,θ0)]θ0 সত্য প্যারামিটার মান। এটি অনুমান করার একটি উপায় হ'ল অনুশীলনমূলক অভিজ্ঞতা ব্যবহার করা

H^=1Ni=1NH(wi,θ^n)

এটা definiteness হয় এইচH^ যা প্রশ্নে হয়।


1
@ জ্যোতির্ময়, যদি আপনার প্যারামিটার জায়গার সীমানায় ন্যূনতম ঘটনা ঘটে?
কার্ডিনাল

@মৌলিক. আপনার কথা ঠিক আছে, আমার যুক্তি সে ক্ষেত্রে কাজ করবে না। তবে ওউলড্রিজ ন্যূনতম অভ্যন্তরটিতে রয়েছে সেই ক্ষেত্রে বিবেচনা করছে। সে ক্ষেত্রে সে কি ভুল নয়?
জ্যোতির্ময় ভট্টাচার্য

@ জ্যোতির্ময়, এটি অবশ্যই কেবল ইতিবাচক অর্ধসীমা হতে পারে। লিনিয়ার ফাংশন বা এমন কোনও ক্রিয়াকলাপের কথা চিন্তা করুন যেখানে ন্যূনতম পয়েন্টগুলির সেটটি উত্তল বহুভুজ গঠন করে। আরও সহজ উদাহরণের জন্য, x = 0 তে যে কোনও বহুপদী f(x)=x2nx=0
কার্ডিনাল

1
@মৌলিক. সত্য। আমাকে যে বিষয়টি त्रास দিচ্ছে তা হ'ল উদ্ধৃত বিবৃতিতে "এমনকি ইতিবাচক অর্ধাহীন" phrase
জ্যোতির্ময় ভট্টাচার্য

@ জ্যোতির্ময়, আপনি সরবরাহ করতে পারেন এমন বইটিতে এম-এসিমেটরের একটি নির্দিষ্ট রূপ রয়েছে? বিবেচনাধীন পরামিতি স্থান দিন। তখনই আমরা লেখকটির মনে কী ছিল তা অনুধাবন করতে পারি। সাধারণভাবে, আমি মনে করি আমরা ইতিমধ্যে প্রতিষ্ঠিত করেছি যে লেখকের দৃ's় বক্তব্যটি সঠিক is বা প্যারামিটার স্থান হিসাবে বিবেচনা করা হচ্ছে এমন আকারে আরও প্রতিবন্ধকতা স্থাপন করলে তা পরিবর্তিত হতে পারে। q
কার্ডিনাল

উত্তর:


16

আমি মনে করি আপনি ঠিক. আসুন আপনার যুক্তিটি এর সংক্ষেপে ছড়িয়ে দিন:

  1. ফাংশন ছোটপ্রশ্নহিসাবে সংজ্ঞায়িত করাপ্রশ্ন(θ^NQQ(θ)=1Ni=1Nq(wi,θ).

  2. যাক এর চট হতে প্রশ্নঃ , কোথা এইচ ( θ ) = 2 প্রশ্নঃHQH(θ)=2Qθiθj সংজ্ঞা অনুসারে এবং এটি পৃথকীকরণের রৈখিকতার সমান 1Ni=1NH(wi,θn)

  3. ধরে নেওয়া যাক θ এন ডোমেইনের অভ্যন্তর মিথ্যা প্রশ্নঃ , তারপর এইচ (θ^NQইতিবাচক আধা নির্দিষ্ট হতে হবে।H(θ^N)

এটি কেবল ফাংশন সম্পর্কে একটি বিবৃতি : এটি কীভাবে সংজ্ঞায়িত করা হয় তা কেবলমাত্র একটি বিচ্যুতি, ইনসোফার ব্যতীত তার দ্বিতীয় যুক্তির সাথে সম্মতিযুক্ত q এর দ্বিতীয় আদেশের পার্থক্য (Qq )আশ্বাস দেয় Q এর দ্বিতীয় আদেশের পার্থক্যযোগ্যতা নিশ্চিত করে।θQ


এম-অনুমানকারী সন্ধান করা জটিল হতে পারে। @ এমপিক্টাস দ্বারা সরবরাহিত এই ডেটা বিবেচনা করুন:

{1.168042, 0.3998378}, {1.807516, 0.5939584}, {1.384942, 3.6700205}, {1.327734, -3.3390724}, {1.602101, 4.1317608}, {1.604394, -1.9045958}, {1.124633, -3.0865249}, {1.294601, -1.8331763},{1.577610, 1.0865977}, { 1.630979, 0.7869717}

আর পদ্ধতি এম-মূল্নির্ধারক এটি সমাধান উত্পাদিত ( 1 , 2 ) = ( - 114,91316 , - 32.54386 ) । উদ্দেশ্য ফাংশনের মান (গড় কুই এই সময়ে 'গুলি) 62.3542 সমান। এখানে ফিটগুলির একটি প্লট রয়েছে:q((x,y),θ)=(yc1xc2)4(c1,c2)(114.91316,32.54386)q

Fit 1

এই ফিটের একটি পাড়ায় এখানে (লগ) উদ্দেশ্য ফাংশনের প্লট রয়েছে:

Objective 1

এখানে কিছু মজাদার: ফিটগুলির পরামিতিগুলি ডেটা সিমুলেট করার জন্য ব্যবহৃত পরামিতিগুলি থেকে খুব বেশি দূরে (কাছে ) এবং আমরা কমপক্ষেও বলে মনে করি না: আমরা একটি অত্যন্ত অগভীর উপত্যকায় যা opালু উভয় পরামিতি বৃহত্তর মান দিকে:(0.3,0.2)

Objective 1, 3D view

এই সময়ে হেসিয়ানের নেতিবাচক নির্ধারক নিশ্চিত করে যে এটি কোনও স্থানীয় ন্যূনতম নয়! তবুও, আপনি যখন z-axis লেবেলের দিকে তাকান, আপনি দেখতে পাবেন যে এই ফাংশনটি পুরো অঞ্চলের মধ্যে পাঁচ-অঙ্কের নির্ভুলতার সমান, কারণ এটি একটি ধ্রুবক 4.1329 (62.354 এর লোগারিথ) সমান। এটি সম্ভবত আর ফাংশন মিনিমাইজারকে নেতৃত্ব দিয়েছে (এর ডিফল্ট সহনশীলতা সহ) এটি উপসংহারে পৌঁছেছিল যে এটি সর্বনিম্নের কাছাকাছি ছিল।

আসলে, সমাধানটি এই বিষয়টি থেকে অনেক দূরে। এটির সুনিশ্চিত হওয়ার জন্য, আমি অঙ্কের ক্ষেত্রে ব্যয়বহুল তবে অত্যন্ত কার্যকর " প্রিন্সিপাল অক্ষ " পদ্ধতিটি গণিতে সম্ভাব্য সংখ্যাজনিত সমস্যা এড়াতে 50-অঙ্কের নির্ভুলতা (বেস 10) ব্যবহার করে নিযুক্ত করেছি । এটি একটি সর্বনিম্ন কাছাকাছি সন্ধান করে (c1,c2)=(0.02506,7.55973) যেখানে উদ্দেশ্যমূলক ফাংশনের মান 58.292655 রয়েছে: আর দ্বারা প্রাপ্ত "ন্যূনতম" এর চেয়ে প্রায় 6% ছোট This , তবে আমি সি 2 কে অতিরঞ্জিত করে উপবৃত্তাকার রূপগুলি সহ সত্য ন্যূনতমের মতো (কেবল সবেমাত্র) এটি দেখতে পারিc2 চক্রান্তের দিকনির্দেশ:

Objective 2

রূপগুলি মাঝখানে 58.29266 থেকে কোণে 58.29284 অবধি রয়েছে (!)। এখানে 3D ভিউ (লগ উদ্দেশ্যটির আবার):

Objective 2, 3D view

এখানে হেসিয়ান ইতিবাচক-সুনির্দিষ্ট: এর ইগেনালুয়্যগুলি 55062.02 এবং 0.430978। সুতরাং এই বিন্দু একটি স্থানীয় সর্বনিম্ন (এবং সম্ভবত বিশ্বব্যাপী সর্বনিম্ন)। এটি ফিট করে এখানে এটি:

Fit 2

আমি মনে করি এটি অন্যটির চেয়ে ভাল। প্যারামিটারের মানগুলি অবশ্যই আরও বাস্তববাদী এবং এটি স্পষ্ট যে আমরা বাঁকানো এই পরিবারের সাথে আরও ভাল কিছু করতে সক্ষম হব না।

এই উদাহরণ থেকে আমরা কার্যকর পাঠ পেতে পারি:

  1. সংখ্যাগত অপ্টিমাইজেশন বিশেষত ননলাইনার ফিটিং এবং অ-চতুর্ভুজ ক্ষতির ক্রিয়াকলাপগুলির সাথে কঠিন হতে পারে। অতএব:
  2. যথাসম্ভব যতগুলি উপায়ে ডাবল চেক ফলাফল, সহ:
  3. আপনি যখনই পারেন উদ্দেশ্য ফাংশন গ্রাফ করুন।
  4. যখন সংখ্যার ফলাফলগুলি গাণিতিক উপপাদ্য লঙ্ঘন করে প্রদর্শিত হয়, তখন অত্যন্ত সন্দেহজনক হন be
  5. যখন পরিসংখ্যানগত ফলাফলগুলি অবাক করে - যেমন আর কোড দ্বারা প্রত্যাবর্তিত প্যারামিটার মানগুলি অতিরিক্ত সন্দেহজনক হয়।

+1, দুর্দান্ত বিশ্লেষণ। আমি মনে করি সে কারণেই ওয়াল্ড্রিজ এই মন্তব্যটি অন্তর্ভুক্ত করেছিল। আমি এখনও মনে করি এমন কিছু উদাহরণের কথা চিন্তা করা সম্ভব যেখানে হেসিয়ান অনির্দিষ্ট থাকবে। উদাহরণস্বরূপ প্যারামিটারের জায়গাটি কৃত্রিমভাবে সীমাবদ্ধ করা হচ্ছে। এই উদাহরণে প্যারামিটার স্পেসটি পুরো প্লেন, সে কারণেই স্থানীয় ন্যূনতমটি আধা-পজিটিভ হেসিয়ান দেবে। আমি মনে করি যে প্রশ্নটি গ্রহণের জন্য
ওয়াল্ড্রিজকে

@ এমপিক্টাস হ্যাঁ, আমি নিশ্চিত যে এখানে কোনও অভ্যন্তরীণ গ্লোবাল ন্যূনতমটিতে একটি অনির্দিষ্ট হেসিয়ান রয়েছে, তবুও যেখানে সমস্ত পরামিতিগুলি সনাক্তযোগ্য। তবে হেসিয়ানদের পক্ষে পর্যাপ্ত মসৃণ অভ্যন্তর গ্লোবাল ন্যূনতম এ অনির্দিষ্টকালের জন্য সম্ভব নয়। এই ধরণের জিনিসটি বারবার প্রমাণিত হয়েছে, যেমন মিলনোর টপোলজিতে একটি ডিফারেনটেবল ভিউ থেকে । আমার সন্দেহ হয় ওল্ড্রিজ সম্ভবত ভুল সংখ্যক "সমাধান" দ্বারা বিভ্রান্ত হয়েছে। (উদ্ধৃত পৃষ্ঠাতে টাইপস সুপারিশ এটা তড়িঘড়ি লেখা ছিল প্রণালী দ্বারা।)
whuber

এমনকি সীমানায়, হেসিয়ান কি ইতিবাচক হবে? আমি বইটি পরীক্ষা করে দেখব, আমি দেখতে পাচ্ছি যে এই অঞ্চলে আমার সত্যই বিস্তৃত জ্ঞানের অভাব রয়েছে। শাস্ত্রীয় উপপাদ্য খুব সহজ, তাই আমি ধরে নিয়েছিলাম যে খুব জটিল কিছু আর হওয়া উচিত নয়। এই কারণটির কারণগুলির মধ্যে একটি হতে পারে কেন আমাকে প্রশ্নের উত্তর দিতে এত অসুবিধা হয়েছিল।
এমপিটিকাস

@ এমপিক্টাস সীমানায় হেসিয়ান অগত্যা সংজ্ঞায়িতও হবে না । ধারণাটি হ'ল: যদি জ্যাকবিয়ান / হেসিয়ান / দ্বিতীয় ডেরিভেটিভ ম্যাট্রিক্স একটি সংকটপূর্ণ স্থানে সংজ্ঞায়িত করা হয়, তবে কোনও প্রতিবেশে ফাংশনটি এই ম্যাট্রিক্স দ্বারা নির্ধারিত চতুর্ভুজ আকারের মতো কাজ করে। যদি ম্যাট্রিক্সের ইতিবাচক এবং নেতিবাচক ইগেনভ্যালু থাকে, তবে ফাংশনটি কিছু দিকের মধ্যে বৃদ্ধি পেতে হবে এবং অন্যদের মধ্যে হ্রাস পেতে হবে: এটি স্থানীয় চূড়ান্ত হতে পারে না। এই উদ্ধৃতি সম্পর্কে @ জ্যোতির্ময় উদ্বিগ্ন, যা এই মৌলিক সম্পত্তির বিরোধী বলে মনে হচ্ছে।
whuber

খুব সুন্দর বিশ্লেষণের জন্য আপনাকে এবং @ এমপিটকাস উভয়কেই ধন্যবাদ। আমি আপনার সাথে একমত হতে চাই যে ওল্ড্রিজ সংখ্যক তাত্ত্বিক বৈশিষ্ট্যগুলির সাথে সংখ্যাগত অসুবিধা গুলিয়ে দিচ্ছে। অন্য কোন উত্তর আছে কিনা দেখুন।
জ্যোতির্ময় ভট্টাচার্য

7

পূর্ণ উদ্ধৃতি এখানে পাওয়া যাবে । অনুমান θ এন কম সমস্যা (এর সমাধান পৃষ্ঠা 344 ):θ^N

minθΘN1i=1Nq(wi,θ)

তাহলে সমাধান θ এনθ^NΘH^ ) ইতিবাচক আধা নির্দিষ্ট হয়।

N1i=1Nq(wi,θ)θ0

minθΘEq(w,θ).

N1i=1Nq(wi,θ)Θ যা উদ্দেশ্য ফাংশনের চট ইতিবাচক নির্দিষ্ট না করা প্রয়োজন।

তার বই ওওলড্রিজে আরও পরে হেসিয়ান অনুমানের একটি উদাহরণ দেয় যা সংখ্যাগতভাবে ইতিবাচক নিশ্চিত হওয়ার গ্যারান্টিযুক্ত। অনুশীলনে হেসিয়ানের অ-ধনাত্মক সুনির্দিষ্টতার সাথে বোঝানো উচিত যে সমাধানটি সীমানা বিন্দুতে রয়েছে বা অ্যালগরিদম সমাধানটি খুঁজে পেতে ব্যর্থ হয়েছে। যা সাধারণত আরও ইঙ্গিত দেয় যে মডেল লাগানো কোনও প্রদত্ত ডেটার জন্য অনুপযুক্ত হতে পারে।

এখানে সংখ্যার উদাহরণ। আমি অ-রৈখিক সর্বনিম্ন স্কোয়ার সমস্যা উত্পন্ন করি:

yi=c1xic2+εi

X[1,2]εσ2set.seed(3)xiyi

আমি সাধারন অ-রৈখিক ন্যূনতম স্কোয়ারগুলি উদ্দেশ্যমূলক ফাংশনের উদ্দেশ্যমূলক ফাংশন বর্গ নির্বাচন করেছি:

q(w,θ)=(yc1xic2)4

ফাংশনটি, তার গ্রেডিয়েন্ট এবং হেসিয়ানকে অনুকূলকরণের জন্য এখানে কোড রয়েছে।

##First set-up the epxressions for optimising function, its gradient and hessian.
##I use symbolic derivation of R to guard against human error    
mt <- expression((y-c1*x^c2)^4)

gradmt <- c(D(mt,"c1"),D(mt,"c2"))

hessmt <- lapply(gradmt,function(l)c(D(l,"c1"),D(l,"c2")))

##Evaluate the expressions on data to get the empirical values. 
##Note there was a bug in previous version of the answer res should not be squared.
optf <- function(p) {
    res <- eval(mt,list(y=y,x=x,c1=p[1],c2=p[2]))
    mean(res)
}

gf <- function(p) {
    evl <- list(y=y,x=x,c1=p[1],c2=p[2]) 
    res <- sapply(gradmt,function(l)eval(l,evl))
    apply(res,2,mean)
}

hesf <- function(p) {
    evl <- list(y=y,x=x,c1=p[1],c2=p[2]) 
    res1 <- lapply(hessmt,function(l)sapply(l,function(ll)eval(ll,evl)))
    res <- sapply(res1,function(l)apply(l,2,mean))
    res
}

প্রথমে সেই গ্রেডিয়েন্ট এবং হেসিয়ান বিজ্ঞাপন হিসাবে কাজ করে test

set.seed(3)
x <- runif(10,1,2)
y <- 0.3*x^0.2

> optf(c(0.3,0.2))
[1] 0
> gf(c(0.3,0.2))
[1] 0 0
> hesf(c(0.3,0.2))
     [,1] [,2]
[1,]    0    0
[2,]    0    0
> eigen(hesf(c(0.3,0.2)))$values
[1] 0 0

হেসিয়ান শূন্য, সুতরাং এটি ইতিবাচক আধা-নির্দিষ্ট। এর মানগুলির জন্য এখনএক্স এবং Y আমরা পেতে লিঙ্ক দেওয়া

> df <- read.csv("badhessian.csv")
> df
          x          y
1  1.168042  0.3998378
2  1.807516  0.5939584
3  1.384942  3.6700205
4  1.327734 -3.3390724
5  1.602101  4.1317608
6  1.604394 -1.9045958
7  1.124633 -3.0865249
8  1.294601 -1.8331763
9  1.577610  1.0865977
10 1.630979  0.7869717
> x <- df$x
> y <- df$y
> opt <- optim(c(1,1),optf,gr=gf,method="BFGS")  
> opt$par
[1] -114.91316  -32.54386
> gf(opt$par)
[1] -0.0005795979 -0.0002399711
> hesf(opt$par)
              [,1]         [,2]
[1,]  0.0002514806 -0.003670634
[2,] -0.0036706345  0.050998404
> eigen(hesf(opt$par))$values
[1]  5.126253e-02 -1.264959e-05

গ্রেডিয়েন্ট শূন্য তবে হেসিয়ান ইতিবাচক নয়।

দ্রষ্টব্য: উত্তর দেওয়ার এটি আমার তৃতীয় প্রয়াস। আমি আশা করি অবশেষে আমি সুনির্দিষ্ট গাণিতিক বক্তব্য দিতে পেরেছি, যা আমাকে পূর্ববর্তী সংস্করণগুলিতে বাদ দিয়েছে।


@ এমপিক্টাস, এটি সেখানে কিছু আকর্ষণীয় স্বরলিপি (আমি জানি এটি আপনার নয়)। একজনW বাম দিকে এবং Y এবং এক্সডানদিকে. আমি অনুমান করছিW=(এক্স,Y)বা এই জাতীয় কিছু। এছাড়াও, আমি ধরে নিচ্ছি যে স্কোয়ারটি হওয়া উচিতY-মি(এক্স,θ) এবং না শুধুমাত্র মি(এক্স,θ)। কোন?
কার্ডিনাল

@mpiktas, I'm not quite sure how to interpret your first sentence due to the wording. I can see two ways, one that I'd call correct and the other I wouldn't. Also, strictly speaking, I don't agree with the second sentence in your first paragraph. As I've shown above, it is possible to be at a local minimum in the interior of the parameter space without the Hessian being positive definite.
cardinal

@cardinal, yes you are right. Wooldridge uses w for consistency reasons, y and x is reserved for response and predictors throughout the book. In this example w=(x,y).
mpiktas

@cardinal, I fixed my wording. Now it should be ok. Thanks for pointing out the problem.
mpiktas

@mptikas. Neither Wooldridge nor I are claiming that the Hessian has to be positive definite everywhere. My claim is that for an interior maximum the empirical Hessian has to be positive semidefinite as a necessary condition of a smooth function reaching its maximum. Wooldridge seems to be saying something different.
Jyotirmoy Bhattacharya

3

The hessian is indefinite at a saddle point. It’s possible that this may be the only stationary point in the interior of the parameter space.

Update: Let me elaborate. First, let’s assume that the empirical Hessian exists everywhere.

If θ^n is a local (or even global) minimum of iq(wi,) and in the interior of the parameter space (assumed to be an open set) then necessarily the Hessian (1/N)iH(wi,θ^n) is positive semidefinite. If not, then θ^n is not a local minimum. This follows from second order optimality conditions — locally iq(wi,) must not decrease in any directions away from θ^n.

One source of the confusion might the "working" definition of an M-estimator. Although in principle an M-estimator should be defined as argminθiq(wi,θ), it might also be defined as a solution to the equation

0=iq˙(wi,θ),
where q˙ is the gradient of q(w,θ) with respect to θ. This is sometimes called the Ψ-type. In the latter case a solution of that equation need not be a local minimum. It can be a saddle point and in this case the Hessian would be indefinite.

Practically speaking, even a positive definite Hessian that is nearly singular or ill-conditioned would suggest that the estimator is poor and you have more to worry about than estimating its variance.


could you adapt your answer so that it matches the notation of the question? To what is x2y2 referring? Where does this get inserted into the equations given in the question?
probabilityislogic

+1 Good points in the update, especially the last paragraph. When the Hessian is available--as is implicitly assumed throughout this discussion--one would automatically use its positive-definiteness as one of the criteria for testing any critical point and therefore this issue simply could not arise. This leads me to believe the Wooldridge quotation must concern the Hessian at a putative global minimum, not at a mere critical point.
whuber

1

There's been a lot of beating around the bush in this thread regarding whether the Hessian has to be positive (semi)definite at a local minimum. So I will make a clear statement on that.

Presuming the objective function and all constraint functions are twice continuously differentiable, then at any local minimum, the Hessian of the Lagrangian projected into the null space of the Jacobian of active constraints must be positive semidefinite. I.e., if Z is a basis for the null space of the Jacobian of active constraints, then ZT(Hessian of Lagrangian)Z must be positive semidefinite. This must be positive definite for a strict local minimum.

So the Hessian of the objective function in a constrained problem having active constraint(s) need not be positive semidefinite if there are active constraints.

Notes:

1) Active constraints consist of all equality constraints, plus inequality constraints which are satisfied with equality.

2) See the definition of the Lagrangian at https://www.encyclopediaofmath.org/index.php/Karush-Kuhn-Tucker_conditions .

3) If all constraints are linear, then the Hessian of the Lagrangian = Hessian of the objective function because the 2nd derivatives of linear functions are zero. But you still need to do the projection jazz if any of these constraints are active. Note that lower or upper bound constraints are particular cases of linear inequality constraints. If the only constraints which are active are bound constraints, the projection of the Hessian into the null space of the Jacobian of active constraints amounts to eliminating the rows and columns of the Hessian corresponding to those components on their bounds.

4) Because Lagrange multipliers of inactive constraints are zero, if there are no active constraints, the Hessian of the Lagrangian = the Hessian of the objective function, and the Identity matrix is a basis for the null space of the Jacobian of active constraints, which results in the simplification of the criterion being the familiar condition that the Hessian of the objective function be positive semidefinite at a local minimum (positive definite if a strict local minimum).


0

The positive answers above are true but they leave out the crucial identification assumption - if your model is not identified (or if it is only set identified) you might indeed, as Wooldridge correctly indicated, find yourself with a non-PSD empirical Hessian. Just run some non-toy psychometric / econometric model and see for yourself.


Because this does not seem mathematically possible, could you offer a simple, clear example to demonstrate how the Hessian of a continuously twice-differentiable objective function could possibly fail to be PSD at a global minimum?
whuber
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.