পক্ষপাত-বৈকল্পিক ট্রেডঅফ ডেরাইভেশন বোঝা


20

আমি পরিসংখ্যানগত শিক্ষার উপাদানগুলির পক্ষপাতিত্ব-বৈচিত্র্য ট্রেড অফের অধ্যায়টি পড়ছি এবং 29 পৃষ্ঠার সূত্রটিতে আমার সন্দেহ আছে যেখানে এলোমেলোভাবে এমন একটি মডেল থেকে ডেটা উত্থাপন করা যাক data প্রত্যাশিত মান number এবং ভেরিয়েন্স । যাক মডেলের ত্রুটির প্রত্যাশিত মান যেখানে ভবিষ্যদ্বাণী হল আমাদের শিক্ষার্থীর। বই অনুসারে, ত্রুটিটি হ'ল

Y=f(x)+ϵ
ε = [ ε ] = 0 [ ( ε - ε ) 2 ] = [ ε 2 ] = σ 2[ ( ওয়াই - ( এক্স ) ) 2 ] f কে ( এক্স ) এক্স [ ( ওয়াই -ϵϵ^=E[ϵ]=0E[(ϵϵ^)2]=E[ϵ2]=σ2
E[(Yfk(x))2]
fk(x)x
E[(Yfk(x))2]=σ2+Bias(fk)2+Var(fk(x)).

আমার প্রশ্ন হল কেন পক্ষপাত মেয়াদ 0 নয়? ত্রুটির সূত্রটি বিকাশ করে আমি

E[(Yfk(x))2]=E[(f(x)+ϵfk(x))2]=E[(f(x)fk(x))2]+2E[(f(x)fk(x))ϵ]+E[ϵ2]=Var(fk(x))+2E[(f(x)fk(x))ϵ]+σ2

যেমন একটি স্বতন্ত্র এলোমেলো সংখ্যাϵ2E[(f(x)fk(x))ϵ]=2E[(f(x)fk(x))]E[ϵ]=0

আমি কোথায় ভুল করছি?

উত্তর:


20

আপনি ভুল নন, তবে আপনি থেকে এক ধাপে একটি ত্রুটি করেছেন । হ'ল ।E[(f(x)fk(x))2]Var(fk(x))এমএসই ( f কে ( এক্স )) ) = ভি আর ( এফ কে ( এক্স )E[(f(x)fk(x))2]MSE(fk(x))=Var(fk(x))+Bias2(fk(x))

E[(Yfk(x))2]=E[(f(x)+ϵfk(x))2]=E[(f(x)fk(x))2]+2E[(f(x)fk(x))ϵ]+E[ϵ2]=E[(f(x)E(fk(x))+E(fk(x))fk(x))2]+2E[(f(x)fk(x))ϵ]+σ2=Var(fk(x))+Bias2(fk(x))+σ2.

দ্রষ্টব্য: E[(fk(x)E(fk(x)))(f(x)E(fk(x))]=E[fk(x)E(fk(x))](f(x)E(fk(x)))=0.


বাইনারি ফলাফলের ক্ষেত্রে, ত্রুটি পরিমাপ হিসাবে ক্রস এনট্রপি সহ একটি সমমানের প্রমাণ আছে?
emanuele

1
এটি একটি বাইনারি প্রতিক্রিয়া সঙ্গে এত ভাল কাজ করে না। "পরিসংখ্যানগত শিক্ষার উপাদানসমূহ" এর দ্বিতীয় সংস্করণে প্রাক্তন 7.2 দেখুন।
ম্যাথু ড্রুরি

3
আপনি কীভাবে থেকে যেতে পারেন থেকে ? ভি আর ( এফ কে)E[(f(x)E(fk(x))+E(fk(x))fk(x))2]+2E[(f(x)fk(x))ϵ]+σ2Var(fk(x))+Bias2(fk(x))+σ2
এন্টোইন

16

বায়াসের আরও কয়েকটি ধাপ - ভেরিয়েন্স পচে যাওয়া

প্রকৃতপক্ষে, পাঠ্যপুস্তকগুলিতে পুরো ডাইরিভিশনটি খুব কমই দেওয়া হয় কারণ এতে প্রচুর পরিমাণে অনিয়মিত বীজগণিত জড়িত। 223 পৃষ্ঠায় "পরিসংখ্যান সম্পর্কিত উপাদানগুলির উপাদান" বইটি থেকে স্বরলিপিটি ব্যবহার করে এখানে আরও একটি সম্পূর্ণ উত্সাহ প্রাপ্ত


যদি আমরা ধরে নিই যে এবং এবং তবে আমরা রিগ্রেশন ফিটের প্রত্যাশিত ভবিষ্যদ্বাণী ত্রুটির জন্য এক্সপ্রেশনটি পেতে পারি স্কোয়ার ত্রুটি হ্রাস ব্যবহার করে একটি ইনপুট এY=f(X)+ϵE[ϵ]=0Var(ϵ)=σϵ2 ( এক্স ) এক্স = এক্স 0f^(X)X=x0

Err(x0)=E[(Yf^(x0))2|X=x0]

সরলতার জন্য আসুন , এবং এবং স্মরণ করুনf^(x0)=f^f(x0)=fE[f]=fE[Y]=f

E[(Yf^)2]=E[(Yf+ff^)2]=E[(yf)2]+E[(ff^)2]+2E[(ff^)(yf)]=E[(f+ϵf)2]+E[(ff^)2]+2E[fYf2f^Y+f^f]=E[ϵ2]+E[(ff^)2]+2(f2f2fE[f^]+fE[f^])=σϵ2+E[(ff^)2]+0

মেয়াদে আমরা উপরের মতো একটি অনুরূপ কৌতুক ব্যবহার করতে পারেন যোগ এবং বিয়োগ পেতেE[(ff^)2]E[f^]

E[(ff^)2]=E[(f+E[f^]E[f^]f^)2]=E[fE[f^]]2+E[f^E[f^]]2=[fE[f^]]2+E[f^E[f^]]2=Bias2[f^]+Var[f^]

একসাথে রেখে

E[(Yf^)2]=σϵ2+Bias2[f^]+Var[f^]


সম্পর্কে কিছু মন্তব্যE[f^Y]=fE[f^]

Alecos Papadopoulos থেকে নেওয়া এখানে

স্মরণ করুন যে ডেটা পয়েন্টগুলি উপর ভিত্তি করে আমরা প্রেডিকটারটি তৈরি করেছি ict যাতে আমরা এটি মনে রাখতে লিখতে পারি ।f^m{(x(1),y(1)),...,(x(m),y(m))} = মিf^=f^m

অন্যদিকে হ'ল ভবিষ্যদ্বাণীটি আমরা উপরের ডেটা পয়েন্টগুলিতে নির্মিত মডেলটি ব্যবহার করে একটি নতুন ডেটা পয়েন্ট । সুতরাং গড় স্কোয়ার ত্রুটি হিসাবে লেখা যেতে পারেY(x(m+1),y(m+1))m

E[f^m(x(m+1))y(m+1)]2

পূর্ববর্তী বিভাগ থেকে সমীকরণটি প্রসারণ করা

E[f^mY]=E[f^m(f+ϵ)]=E[f^mf+f^mϵ]=E[f^mf]+E[f^mϵ]

সমীকরণের শেষ অংশটি হিসাবে দেখা যেতে পারে

E[f^m(x(m+1))ϵ(m+1)]=0

যেহেতু আমরা point পয়েন্টটি সম্পর্কে নিম্নলিখিত অনুমানগুলি করছি :x(m+1)

  • এটা তোলে ছিল না যখন নির্মাণের ব্যবহৃতf^m
  • এটি অন্যান্য সমস্ত পর্যবেক্ষণ independent of of এর থেকে পৃথক{(x(1),y(1)),...,(x(m),y(m))}
  • এটি of এর থেকে পৃথকϵ(m+1)

সম্পূর্ণ ডেরাইভেশন সহ অন্যান্য উত্স


1
কেন ? আমি মনে করি না যে এবং স্বতন্ত্র, যেহেতু using মূলত ব্যবহার করে নির্মিত । ওয়াই ওয়াইE[f^Y]=fE[f^]Yf^f^Y
ফিলিপে পেরেজ

5
তবে প্রশ্নটি মূলত একই, কেন ? The এর এলোমেলোতা ত্রুটি থেকে আসে তাই আমি কেন দেখছি না কেন এবং স্বাধীন হতে পারে এবং তাই hence । ε ε ( ε ) = 0E[f^ϵ]=0f^ϵf^ϵE(f^ϵ)=0
ফিলিপে পেরেজ

আপনার পূর্বরূপ থেকে মনে হয় যে নমুনা বনাম নমুনার দৃষ্টিকোণের বাইরে গুরুত্বপূর্ণ। এটা তাই? যদি আমরা কেবলমাত্র নমুনায় কাজ করি এবং, তাহলে, কীভাবে অবশিষ্টাংশ হিসাবে বৈষম্য ট্রেড অফটি অদৃশ্য হবে? ϵ
মার্কোইটস

1
@ ফিলিপপ্রেজ যতদূর আমি বুঝতে পেরেছি, rand এর এলোমেলোতা ট্রেন-পরীক্ষার বিভাজন থেকে আসে (যা পয়েন্টগুলি ট্রেনিং সেটে শেষ হয়েছিল এবং প্রশিক্ষিত ভবিষ্যদ্বাণী হিসাবে gave দিয়েছে )। অন্য কথায়, of এর বৈকল্পিকতা প্রদত্ত নির্দিষ্ট ডেটা সেটের সমস্ত সম্ভাব্য উপসর্গ থেকে আসে যা আমরা প্রশিক্ষণের সেট হিসাবে নিতে পারি। ডেটা-সেটটি স্থির থাকায় থেকে কোনও এবং তাই এবং স্বাধীন। ε εf^f^f^ϵf^ϵ
আলবার্তো শান্তিনি
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.