আপনি ভুলভাবে দুটি পৃথক সত্তাকে বিবাদ দিচ্ছেন: (1) পক্ষপাত-বৈচিত্র এবং (2) মডেল জটিলতা।
(1) ওভার-ফিটিং মেশিন লার্নিংয়ে খারাপ কারণ কোনও তথ্য জনসংখ্যার সত্যিকারের নিরপেক্ষ নমুনা সংগ্রহ করা অসম্ভব । ওভার-ফিটযুক্ত মডেলের ফলাফলগুলি পুরো জনগণের জন্য পরামিতিগুলির সঠিকভাবে অনুমান করার পরিবর্তে পরামিতিগুলিতে ফলাফল দেয় the এর মানে হল আনুমানিক পরামিতি মধ্যে একটি পার্থক্য অবশিষ্ট থাকবে এবং অনুকূল পরামিতি , প্রশিক্ষণ সংখ্যা নির্বিশেষে সময়কাল । φ*এনϕ^ϕ∗n
ই ϕ ϕ|ϕ∗−ϕ^|→eϕ as n→∞ , যেখানে some কিছু সীমাবদ্ধ মানeϕ
(২) মডেল জটিলতা সরলতার সাথে পরামিতির সংখ্যা । তাহলে মডেল জটিলতা কম, তারপর সেখানে একটি রিগ্রেশন ত্রুটি নির্বিশেষে প্রশিক্ষণ সময়কাল সংখ্যা, এমনকি যখন থাকবে প্রায় সমান । সবচেয়ে সহজ উদাহরণটি কোনও রেখার (y = mx + c) ফিট করতে শিখবে, যেখানে একটি বক্ররেখার ডেটাতে (চতুর্ভুজ বহুভুজ)φ φ φ * φ = { মি , গ }ϕϕ^ϕ∗ϕ={m,c}
ই এমE[|y−M(ϕ^)|]→eM as n→∞ , যেখানে কিছু রিগ্রেশন ফিট ত্রুটি বাউন্ডিং মানeM
সংক্ষিপ্তসার: হ্যাঁ, নমুনা পক্ষপাত এবং মডেল জটিলতা উভয়ই শেখা মডেলের 'মানের' অবদান রাখে, তবে তারা সরাসরি একে অপরকে প্রভাবিত করে না। আপনার যদি পক্ষপাতদুষ্ট ডেটা থাকে তবে সঠিক সংখ্যার প্যারামিটার এবং অসীম প্রশিক্ষণ নির্বিশেষে, চূড়ান্ত শেখা মডেলটিতে ত্রুটি থাকবে। একইভাবে, আপনার যদি প্রয়োজনীয় প্যারামিটারগুলির চেয়ে কম পরিমাণ থাকে, তবে নিখুঁত নিরপেক্ষ নমুনা এবং অসীম প্রশিক্ষণ নির্বিশেষে, চূড়ান্ত শেখা মডেলটিতে ত্রুটি থাকবে।