Vapnik-Chervonenkis (ভিসি) -dimension স্নায়ুর নেটওয়ার্ক জন্য সূত্র থেকে রেঞ্জ থেকে , সঙ্গে সবচেয়ে খারাপ ক্ষেত্রে, যেখানে প্রান্ত এবং সংখ্যা নোডের সংখ্যা। সাধারণীকরণের দৃ guarantee় গ্যারান্টি থাকতে প্রয়োজনীয় প্রশিক্ষণের নমুনাগুলির সংখ্যা ভিসি-মাত্রার সাথে লিনিয়ার।
এর অর্থ হ'ল কোটি কোটি প্রান্তযুক্ত একটি নেটওয়ার্কের জন্য, যেমন সফল গভীর শেখার মডেলগুলির ক্ষেত্রে, ট্রেনিং ডেটাসেটের সবচেয়ে খারাপ ক্ষেত্রে চতুর্ভুজবিস্তার জন্য, সেরা ক্ষেত্রে কোটি কোটি প্রশিক্ষণের নমুনার প্রয়োজন। বৃহত্তম প্রশিক্ষণ সেটে বর্তমানে প্রায় একশো বিলিয়ন নমুনা রয়েছে। যেহেতু পর্যাপ্ত প্রশিক্ষণের ডেটা নেই, তত সম্ভবত গভীর শেখার মডেলগুলি সাধারণীকরণ করছে। পরিবর্তে, তারা প্রশিক্ষণ ডেটা overfitting হয়। এর অর্থ মডেলগুলি এমন ডেটাতে ভাল সঞ্চালন করবে না যা প্রশিক্ষণের ডেটার থেকে পৃথক, যা মেশিন লার্নিংয়ের জন্য একটি অনাকাঙ্ক্ষিত সম্পত্তি।
ভিসি ডাইমেনশনাল বিশ্লেষণ অনুসারে, গভীর শেখার সাধারণকরণের অক্ষমতা দেওয়া, গভীর শিক্ষার ফলাফলগুলি কেন এত হাইপাইড হয়? কিছু ডেটাসেটে কেবল উচ্চ উচ্চতা থাকা নিজের পক্ষে খুব বেশি বোঝায় না। গভীর শেখার আর্কিটেকচার সম্পর্কে বিশেষ কিছু রয়েছে যা ভিসি-মাত্রাকে উল্লেখযোগ্যভাবে হ্রাস করে?
আপনি যদি ভিসি-ডাইমেনশন বিশ্লেষণটি প্রাসঙ্গিক বলে মনে করেন না, দয়া করে প্রমাণ / ব্যাখ্যা দিন যে গভীর শিক্ষণটি সাধারণীকরণ করছে এবং অত্যধিক উপযোগী নয়। অর্থাৎ এটির কী পুনরুদ্ধার এবং নির্ভুলতা আছে, বা কেবল ভাল পুনরুদ্ধার? 100% রিকালটি অর্জনের জন্য তুচ্ছ, যেমনটি 100% নির্ভুলতা। উভয়কেই 100% পাওয়া খুব কঠিন very
বিপরীত উদাহরণ হিসাবে, এখানে গভীর প্রমাণ শেখা অত্যধিক উপযুক্ত প্রমাণ রয়েছে । একটি ওভারফিট মডেল বোকা বানানো সহজ কারণ এটি নির্ধারক / স্টোকাস্টিক শব্দকে অন্তর্ভুক্ত করেছে। ওভারফিটিংয়ের উদাহরণের জন্য নিম্নলিখিত চিত্রটি দেখুন।
এছাড়াও, পরীক্ষার ডেটাতে যথাযথতা থাকা সত্ত্বেও একটি ওভারফিট মডেল নিয়ে সমস্যাগুলি বোঝার জন্য এই প্রশ্নের নিম্নতর উত্তরগুলি দেখুন ।
কেউ কেউ প্রতিক্রিয়া জানিয়েছেন যে নিয়মিতকরণ একটি বড় ভিসি মাত্রার সমস্যা সমাধান করে । আরও আলোচনার জন্য এই প্রশ্নটি দেখুন ।