অতিরিক্ত ফিট করার জন্য গাণিতিক / অ্যালগোরিদমিক সংজ্ঞা


18

ওভারফিটিংয়ের গাণিতিক বা অ্যালগরিদমিক সংজ্ঞা আছে কি?

প্রায়শই সরবরাহিত সংজ্ঞা হ'ল প্রতি একক পয়েন্টের মধ্য দিয়ে যাওয়া লাইন এবং বৈধতা হ্রাস বক্ররেখার হঠাৎ করে উপরে উঠার পয়েন্টগুলির ক্লাসিক 2-ডি প্লট।

তবে গাণিতিকভাবে কঠোর সংজ্ঞা আছে কি?

উত্তর:


22

হ্যাঁ একটি (আরও কিছু) কঠোর সংজ্ঞা রয়েছে:

একটি প্যারামিটারের সেট সহ একটি মডেল দেওয়া, মডেলটি তথ্যের চেয়ে বেশি উপযোগী হতে পারে বলা যেতে পারে যদি নির্দিষ্ট সংখ্যক প্রশিক্ষণের পদক্ষেপের পরে, নমুনা (পরীক্ষা) ত্রুটি বাড়তে থাকে তখন প্রশিক্ষণের ত্রুটি কমতে থাকে।

এখানে চিত্র বর্ণনা লিখুন এই উদাহরণে নমুনা (পরীক্ষা / যাচাইকরণ) এর বাইরে ত্রুটি ট্রেনের ত্রুটির সাথে প্রথমে হ্রাস পায়, তারপরে এটি 90 তম পর্বের আশেপাশে বাড়তে শুরু করে, এটিই যখন ওভারফিটিং শুরু হয়

এটি দেখার আরেকটি উপায় পক্ষপাত এবং বৈকল্পিকতার দিক থেকে। কোনও মডেলের জন্য নমুনা ত্রুটির বাইরে থাকা দুটি উপাদানকে বিভক্ত করা যেতে পারে:

  • বায়াস: প্রকৃত মডেলের প্রত্যাশিত মান থেকে অনুমান করা মডেল থেকে প্রত্যাশিত মানের কারণে ত্রুটি।
  • বৈচিত্র: ডেটা সেটে ছোট ছোট ওঠানামার প্রতি মডেল সংবেদনশীল হওয়ার কারণে ত্রুটি।

পক্ষপাত কম থাকলে ওভারফিটিং ঘটে তবে বৈকল্পিক বেশি হয়। কোনও সেট করার জন্য যেখানে সত্য (অজানা) মডেলটি রয়েছে:X

Y=f(X)+ϵ - ডেটা সেটে অপরিবর্তনীয় গোলমাল, এবং , ϵE(ϵ)=0Var(ϵ)=σϵ

এবং আনুমানিক মডেলটি হ'ল:

Y^=f^(X) ,

তারপরে পরীক্ষার ত্রুটি (একটি পরীক্ষার ডাটা পয়েন্ট ) এইভাবে লেখা যেতে পারে:xt

Err(xt)=σϵ+Bias2+Variance

সঙ্গে এবং Bias2=E[f(xt)f^(xt)]2Variance=E[f^(xt)E[f^(xt)]]2

(কঠোরভাবে এই পচনটি রিগ্রেশন ক্ষেত্রে প্রযোজ্য, তবে অনুরূপ ক্ষয়টি কোনও ক্ষতির কার্যের জন্য কাজ করে, যেমন শ্রেণিবদ্ধকরণ ক্ষেত্রেও)।

উপরোক্ত সংজ্ঞাগুলি উভয়ই মডেল জটিলতায় আবদ্ধ (মডেলটির পরামিতিগুলির সংখ্যা অনুসারে পরিমাপ করা): অতিরিক্ত মানানসই হওয়ার সম্ভাবনা যত বেশি হবে মডেলের জটিলতা তত বেশি।

বিষয়টির কঠোর গাণিতিক চিকিত্সার জন্য পরিসংখ্যান শিক্ষার উপাদানগুলির অধ্যায় 7 দেখুন ।

এখানে চিত্র বর্ণনা লিখুন মডেল জটিলতার সাথে বায়াস-ভেরিয়েন্স ট্রেড অফ এবং ভেরিয়েন্স (অর্থাত্ ওভারফিটিং) বৃদ্ধি পাচ্ছে। ESL অধ্যায় 7 থেকে নেওয়া


1
প্রশিক্ষণ এবং পরীক্ষার ত্রুটি উভয়ের পক্ষে কি হ্রাস পাওয়া সম্ভব, তবে মডেলটি এখনও বেশি? আমার মনে, প্রশিক্ষণের বিচ্যুতি এবং পরীক্ষার ত্রুটি অত্যধিক উত্সাহ প্রদর্শন করে, তবে অতিরিক্ত ফিটিং অগত্যা এই বিচ্যুতিটি জড়িত করে না। উদাহরণস্বরূপ, একটি এনএন যিনি কারাগারের ফটোগুলির সাদা ব্যাকগ্রাউন্ডকে স্বীকৃতি দিয়ে অপরাধী থেকে অপরাধীদের আলাদা করতে শিখছেন তা বেশ মানানসই, তবে প্রশিক্ষণ এবং পরীক্ষার ত্রুটিগুলি সম্ভবত অন্যদিকে বিচ্যুত হচ্ছে না।
ইয়ার্স

সেক্ষেত্রে @ ইটার্স, আমার মনে হয় না যে ওভারফিটটি হবে যা পরিমাপ করার কোনও উপায় আছে। আপনার যে সমস্ত অ্যাক্সেস রয়েছে সেগুলি হ'ল ডেটা প্রশিক্ষণ এবং পরীক্ষা করা এবং যদি উভয়ই ডেটাসেটগুলি এনএন (সাদা পটভূমি) এর যে সুবিধাটি গ্রহণ করে একই বৈশিষ্ট্যটি প্রদর্শন করে, তবে এটি কেবল একটি বৈধ বৈশিষ্ট্য যার সুবিধা নেওয়া উচিত এবং অগত্যা অত্যধিক মানানসই নয়। আপনি যদি সেই বৈশিষ্ট্যটি না চান, তবে আপনাকে এটিতে আপনার ডেটা সেটগুলিতে তারতম্যগুলি অন্তর্ভুক্ত করতে হবে।
ক্যালভিন গডফ্রে

1
@ ইটার্স আপনার উদাহরণটি যা আমি "সোস্যাল ওভারফিটিং" হিসাবে মনে করি: গাণিতিকভাবে, মডেলটি অত্যধিক মানানসই নয়, তবে বাইরের কিছু সামাজিক বিবেচনা রয়েছে যা ভবিষ্যদ্বাণীটি ভাল অভিনয় করতে পারে না। আরও আকর্ষণীয় উদাহরণ হ'ল কয়েকটি কাগল প্রতিযোগিতা এবং বিভিন্ন ওপেন ডেটা সেট যেমন বোস্টন হাউজিং, এমএনআইএসটি, ইত্যাদি ... মডেলটি নিজের চেয়ে বেশি মানানসই নাও হতে পারে (পক্ষপাত, বৈকল্পিকতার দিক থেকে ...), তবে অনেক কিছু রয়েছে সাধারণভাবে সম্প্রদায়ের সমস্যা সম্পর্কে জ্ঞান (পূর্ববর্তী দল এবং গবেষণা পত্রগুলির ফলাফল, প্রকাশ্যে ভাগ করা কার্নেল ইত্যাদি ...) যা অত্যধিক মানসিকতার দিকে পরিচালিত করে।
স্কান্দার এইচ। - মোনিকা

1
@ ইয়টারস (অব্যাহত) সে কারণেই তত্ত্বের জন্য একটি পৃথক বৈধতা ডেটা সেট (পরীক্ষার ডেটা সেট ছাড়াও) একটি "ভল্ট" এ থাকা উচিত এবং চূড়ান্ত বৈধতা অবধি ব্যবহার করা উচিত নয়।
স্কান্দার এইচ। - মনিকা 16

1
@ ক্যালভিনগডফ্রে আরও প্রযুক্তিগত উদাহরণ এখানে। ধরা যাক আমার কাছে একটি বাইনারি শ্রেণিবদ্ধকরণ ডেটাসেট রয়েছে যা দুটি শ্রেণির মধ্যে সমানভাবে বিভক্ত হয়ে যায় এবং তারপরে মোটামুটি ভারসাম্যহীন বার্নোল্লি বিতরণ থেকে শ্রেণিবিন্যাসের মধ্যে শব্দ যোগ করে যাতে ডেটাসেটটি ক্লাসগুলির মধ্যে একটির দিকে যায়। আমি ডেটাসেটকে একটি ট্রেন এবং পরীক্ষায় বিভক্ত করেছি এবং ভারসাম্যহীন বিতরণের কারণে আংশিকভাবে উভয়টিতে উচ্চ নির্ভুলতা অর্জন করেছি। যাইহোক, মডেলটির যথার্থতা সত্য ডেটাসেটের শ্রেণিবিন্যাসের তুলনায় বেশি নয় কারণ মডেলটি স্কিউড বার্নুলি বিতরণ শিখেছিল।
ইয়েস্টস
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.