আপনি বলেছেন অ্যালগরিদমটি হ'ল: কে-নিকটতম প্রতিবেশী অ্যালগরিদম সাথে কে = সংখ্যক প্রশিক্ষণ পয়েন্ট ব্যবহৃত হয়। আমি এটি জেএমএস-কে-নিকটতম-প্রতিবেশী হিসাবে সংজ্ঞায়িত করি ।
যেহেতু ভিসি ডাইমেনশন সবচেয়ে বেশি সংখ্যক প্রশিক্ষণ পয়েন্ট যা ট্রেনের ত্রুটি 0 দিয়ে অ্যালগোরিদম দ্বারা ছিন্ন করতে পারে , তাই জেএমএস-কে-নিকটতম-প্রতিবেশীর ভিসি মাত্রা কেবল কে বা 0 হতে পারে।
1 প্রশিক্ষণের উদাহরণ => কে = 1: প্রশিক্ষণের সময় জেমস -১-নিকটতম-প্রতিবেশী ঠিক এই উদাহরণটি সঞ্চয় করে। ঠিক একই প্রশিক্ষণ সেটটিতে প্রয়োগ করার সময়, এক উদাহরণ হ'ল সঞ্চিত প্রশিক্ষণের উদাহরণের নিকটতম (কারণ সেগুলি একই), তাই প্রশিক্ষণের ত্রুটি 0 হয়।
সুতরাং আমি সম্মত, ভিসি মাত্রা কমপক্ষে 1।
2 প্রশিক্ষণের উদাহরণ => কে = 2: কেবলমাত্র লেবেলগুলি পৃথক করে থাকলেই সমস্যা হতে পারে। এক্ষেত্রে প্রশ্নটি হল, ক্লাস লেবেলের জন্য কীভাবে সিদ্ধান্ত নেওয়া হয়। সংখ্যাগরিষ্ঠ ভোটের ফলে কোনও ফলাফল হয় না (ভিসি = 0?), যদি আমরা দূরত্বে বিপরীতভাবে সংখ্যাগরিষ্ঠ ভোট ব্যবহার করি তবে ভিসি ডাইমেনশনটি 2 হয় (ধরে নেওয়া যায় যে এটি পৃথক পৃথক লেবেলের সাথে দু'বার একই প্রশিক্ষণের উদাহরণ থাকতে পারে না) ক্ষেত্রে সমস্ত অ্যালগরিদমের ভিসি মাত্রা 0 (আমার ধারণা) হবে।
কোনও স্ট্যান্ডার্ড কে-নিকটতম প্রতিবেশী অ্যালগরিদম নেই, এটি একই বুনিয়াদী ধারণাযুক্ত পরিবারের বেশি তবে বাস্তবায়নের বিশদটি যখন আসে তখন এটি বিভিন্ন স্বাদে থাকে।
ব্যবহৃত সংস্থানসমূহ: অ্যান্ড্রু মুর দ্বারা ভিসি ডাইমেনশন স্লাইড