ইতিমধ্যে এখানে রয়েছে এমন উত্তরের উত্তরে আমি কয়েকটি পয়েন্ট যুক্ত করব:
নেস্টেড কে-ফোল্ড বনাম পুনরাবৃত্ত কে-ভাঁজ: নেস্টেড এবং রিপিট করা কে-ফোল্ড সম্পূর্ণ ভিন্ন জিনিস, বিভিন্ন উদ্দেশ্যে ব্যবহৃত হয়।
- যেমন আপনি ইতিমধ্যে জানেন , নেস্টেড ভাল যদি আপনি মডেল নির্বাচনের জন্য অভ্যন্তরীণ সিভি ব্যবহার করতে চান।
- পুনরাবৃত্তি: আইএমএইচও আপনার সর্বদা কে-ফোল্ড সিভি পুনরাবৃত্তি করা উচিত [নীচে দেখুন]।
আমি তাই কোনও নেস্টেড কে-ফোল্ড ক্রস বৈধতা পুনরাবৃত্তি করার পরামর্শ দিই ।
আরও ভাল প্রতিবেদন "আমাদের অনুমানের পরিসংখ্যান, যেমন এর আত্মবিশ্বাসের বিরতি, বৈচিত্র্য, গড় ইত্যাদি পুরো সম্পূর্ণ নমুনায় (এই ক্ষেত্রে সিভি নমুনা)" " :
অবশ্যই। তবে আপনাকে এই সত্যটি সম্পর্কে সচেতন হওয়া দরকার যে আপনি একা ক্রস বৈধতার ফলাফল দ্বারা আত্মবিশ্বাসের ব্যবধানটি (সহজেই) অনুমান করতে সক্ষম হবেন না। কারণটি হ'ল, যদিও আপনি পুনরায় নমুনা নিচ্ছেন, আপনি যে কেস দেখেন তার আসল সংখ্যা সীমাবদ্ধ (এবং সাধারণত ছোট ছোট - অন্যথায় আপনি এই পার্থক্যগুলি নিয়ে মাথা ঘামান না)।
উদাহরণস্বরূপ, বেনজিও, ওয়াই এবং গ্র্যান্ডভ্যালেট, ওয়াই দেখুন: মেশিন লার্নিং রিসার্চের কে-ফোল্ড ক্রস-ভ্যালিডেশন জার্নাল, 2004, 5, 1089-1105 এর ভেরিয়েন্সের কোনও নিরপেক্ষ অনুমানক ।
যাইহোক, কিছু পরিস্থিতিতে আপনি বৈকল্পিকের অনুমান করতে পারেন: বারবার কে-ভাঁজ ক্রস বৈধকরণের সাহায্যে, আপনি মডেল অস্থিরতার ভূমিকা পালন করে কিনা সে সম্পর্কে ধারণা পেতে পারেন। এবং এই অস্থিরতা সম্পর্কিত বৈকল্পিকটি আসলে সেই পরিবর্তনের অংশ যা আপনি বারবার ক্রস-বৈধকরণের মাধ্যমে হ্রাস করতে পারবেন। (যদি আপনার মডেলগুলি পুরোপুরি স্থিতিশীল থাকে তবে ক্রস বৈধকরণের প্রতিটি পুনরাবৃত্তি / পুনরাবৃত্তি প্রতিটি ক্ষেত্রে ঠিক একই রকম পূর্বাভাস রাখে However তবে, আপনার ডেটা সেটটির প্রকৃত পছন্দ / সংমিশ্রণের কারণে এখনও আপনার বৈচিত্র রয়েছে)। সুতরাং পুনরাবৃত্তি কে-ভাঁজ ক্রস বৈধকরণের নীচের বৈকল্পিকতার একটি সীমা রয়েছে। আরো এবং আরো পুনরাবৃত্তির করছেন / পুনরাবৃত্তিও, অর্থে দেখা যায় না যেমন সত্য যে শেষ শুধুমাত্র দ্বারা সৃষ্ট ভ্যারিয়েন্স বাস্তব ক্ষেত্রে পরীক্ষা করা হয়েছিল প্রভাবিত হয় না। এন
সত্য যে শেষ শুধুমাত্র দ্বারা সৃষ্ট ভ্যারিয়েন্স বাস্তব ক্ষেত্রে, পরীক্ষা করা হয়েছিল কিছু বিশেষ ক্ষেত্রে জন্য নির্ণয় করা যায় যেমন যেমন হিট হার, ত্রুটি হার, সংবেদনশীলতা, নির্দিষ্টতা, ভবিষ্যদ্বাণীপূর্ণ মান ইত্যাদি অনুপাত দ্বারা পরিমাপ করা ক্লাসিফায়ার কর্মক্ষমতা তারা দ্বিপদ ডিস্ট্রিবিউশন দুর্ভাগ্যবশত অনুসরণ, এর মানে হল তারা আছে বিশাল ভ্যারিয়েন্স সঙ্গে মডেলের সত্য কর্মক্ষমতা মান, পর্যবেক্ষণ করা, এবং ভগ্নাংশের ডিনোমিনেটরে নমুনার আকার। এর সর্বাধিক রয়েছেσ 2 ( পি ) = 1এনপি পি এনপি=0.5σ2( পি^) = 1এনপি ( 1 - পি )পিপি^এনপি = 0.5। আপনি পর্যবেক্ষণ থেকে শুরু হওয়া আত্মবিশ্বাসের ব্যবধানগুলিও গণনা করতে পারেন। (@ ফ্র্যাঙ্ক হ্যারেল মন্তব্য করবে যে এগুলি কোনও সঠিক স্কোরিংয়ের নিয়ম নয়, সুতরাং আপনার যাইহোক সেগুলি ব্যবহার করা উচিত নয় - যা বিশাল বৈচিত্রের সাথে সম্পর্কিত)। যাইহোক, আইএমএইচও তারা রক্ষণশীল সীমানা অর্জনের জন্য দরকারী (এখানে আরও ভাল স্কোরিংয়ের নিয়ম রয়েছে, এবং এই ভগ্নাংশগুলির খারাপ আচরণ আরও ভাল নিয়মের জন্য সবচেয়ে খারাপ সীমা))
উদাহরণস্বরূপ দেখুন সি বেলাইটস, আর সালজার এবং ভি সার্গো: আংশিক শ্রেণীর সদস্যপদ ব্যবহার করে নরম শ্রেণিবদ্ধকরণ মডেলগুলির বৈধতা: অ্যাস্ট্রোসাইটোমা টিস্যু, চেমোমের গ্রেডিংয়ের ক্ষেত্রে সংবেদনশীলতা ও কোং এর একটি বর্ধিত ধারণা applied Intell। ল্যাব। সিস্টে।, 122 (2013), 12 - 22।
সুতরাং এটি আমাকে ধরে রাখার বিরুদ্ধে আপনার যুক্তি ঘুরিয়ে দিতে দেয় :
- না একা পুনরায় মডেলিং করা (অগত্যা) আপনাকে বৈকল্পিকতার একটি ভাল অনুমান দেয় না,
- OTOH, আপনি যদি ক্রস বৈধতা অনুমানের সসীম-পরীক্ষার-নমুনা-আকার-প্রকারের বিষয়ে যুক্তি করতে পারেন তবে তা রাখাও সম্ভব।
এই একক পরিমাপের জন্য আমাদের অনুমানকটিকে এমন একটি সেট (যেমন সিভি সেট) উপর প্রশিক্ষণ দেওয়া হত যা আমাদের হোল্ড-আউট সেটটির জন্য জায়গা তৈরি করতে হবে বলে আমাদের প্রাথমিক নমুনার চেয়ে ছোট। এটি পি 1 এ আরও পক্ষপাতদুষ্ট (হতাশাবাদী) অনুমানের ফলস্বরূপ।
অগত্যা নয় (কে-ভাঁজের সাথে যদি তুলনা করা হয়) - তবে আপনাকে ট্রেড অফ করতে হবে: ছোট হোল্ড-আউট সেট (যেমন the নমুনার => নিম্ন পক্ষপাত (k কে-ভাঁজ সিভি এর সমান)), উচ্চ প্রকরণ (> কে-ভাঁজ সিভি, মোটামুটি কে এর একটি উপাদান দ্বারা)1ট
আমার কাছে দেখে মনে হচ্ছে সিভি নমুনার বিশ্লেষণ আরও তথ্যবহুল হওয়ায় হোল্ড-আউট টেস্ট সেটে রিপোর্ট করা খারাপ অভ্যাস।
সাধারণত, হ্যাঁ তবে এটি মনে রাখাও ভাল যে গুরুত্বপূর্ণ ধরণের ত্রুটি রয়েছে (যেমন ড্রিফ্ট) যা বৈধতা পুনরায় মডেলিংয়ের মাধ্যমে পরিমাপ / সনাক্ত করা যায় না।
উদাহরণস্বরূপ Esbensen, KH এবং Geladi, P. যথাযথ বৈধকরণের মূলনীতিসমূহ: বৈধতার জন্য পুনরায় স্যাম্পলিংয়ের ব্যবহার এবং অপব্যবহার, কেমোমেট্রিক্স জার্নাল, 2010, 24, 168-187
তবে এটি আমার কাছে মনে হচ্ছে প্রশিক্ষিত মোট মডেলের একই সংখ্যার জন্য (ভাঁজের মোট # টি) পুনরাবৃত্তি কে-ভাঁজ এমন অনুমান করে যেগুলি নেস্টেড কে-ফোল্ডের চেয়ে কম পক্ষপাতদুষ্ট এবং আরও নির্ভুল yield এটি দেখতে:
পুনরাবৃত্তি কে-ভাঁজ একই কে এর জন্য নেস্টেড কে-ফোল্ডের চেয়ে আমাদের মোট নমুনার বৃহত্তর ভগ্নাংশ ব্যবহার করে (যেমন এটি নিম্ন পক্ষপাতের দিকে পরিচালিত করে)
আমি এই কোন বলতে চাই: এটা কোন ব্যাপার না কিভাবে মডেল প্রশিক্ষণ তার ব্যবহার ভাড়াটে মডেল এবং "বাস্তব" মডেল একই ব্যবহারের হিসাবে, প্রশিক্ষণ নমুনা যতদিন উপায়। (আমি মডেল সেট আপের অংশ হিসাবে হাইপার-প্যারামিটারগুলির অভ্যন্তরীণ ক্রস-বৈধতা / অনুমানের দিকে লক্ষ্য করি)।
যদি আপনি হাইপার-প্যারামিটার অপ্টিমাইজেশন সহ প্রশিক্ষিত প্রশিক্ষণ প্রাপ্ত সার্ওগেট মডেলগুলির সাথে তুলনা করেন তবে স্থির হাইপার-প্যারামিটারগুলিতে প্রশিক্ষিত প্রশিক্ষণগুলি আলাদা different তবে IMHO যা আপেল থেকে 1 কমলাতে সাধারণীকরণ করছে isকেকে - 1টএন
ট
১০০ টি পুনরাবৃত্তি কেবল নেস্টেড কে-ফোল্ডে (কে = 10) আমাদের অনুমানের 10 টি পরিমাপ দিতে পারে তবে কে-ভাঁজে 100 পরিমাপ (আরও পরিমাপ পি 2 এর নিম্নতম পরিবর্তনের দিকে নিয়ে যায়)
এটি কোনও পার্থক্য করে কিনা তা (সারোগেট) মডেলগুলির অস্থিরতার উপর নির্ভর করে, উপরে দেখুন। স্থিতিশীল মডেলগুলির জন্য এটি অপ্রাসঙ্গিক। সুতরাং আপনি 1000 বা 100 বহিরাগত পুনরাবৃত্তি / পুনরাবৃত্তি করেন কিনা তা হতে পারে।
এবং এই কাগজটি অবশ্যই এই বিষয়টির পাঠ্য তালিকার অন্তর্ভুক্ত:
কাওলি, জিসি এবং টালবট, এনএলসি মডেল নির্বাচনের ওভার-ফিটিং এবং পারফরম্যান্স মূল্যায়নের পরবর্তী নির্বাচন বায়াস, মেশিন লার্নিং রিসার্চ, 2010, 11, 2079-2107