আমি বুঝতে পারি "মাত্রিকতার অভিশাপ" কী, এবং আমি কিছু উচ্চ মাত্রিক অপ্টিমাইজেশান সমস্যাগুলি করেছি এবং তাত্পর্যপূর্ণ সম্ভাবনার চ্যালেঞ্জটি জানি।
তবে, আমি সন্দেহ করি যে বেশিরভাগ বাস্তব বিশ্বের ডেটাতে "মাত্রিকতার অভিশাপ" উপস্থিত রয়েছে কিনা (ভালভাবে একটি চিত্রের জন্য ছবি বা ভিডিওগুলি একপাশের জন্য রেখে দেওয়া যাক, আমি গ্রাহক ডেমোগ্রাফিক এবং ক্রয় আচরণের ডেটার মতো ডেটা নিয়ে ভাবছি)।
আমরা কয়েক হাজার বৈশিষ্ট্য সহ ডেটা সংগ্রহ করতে পারি তবে বৈশিষ্ট্যগুলি কয়েক হাজার মাত্রা সহ একটি স্পেস পুরোপুরি বিস্তৃত করতে পারে এমনটা কমই অসম্ভব। এই কারণেই মাত্রা হ্রাস কৌশলগুলি এত জনপ্রিয়।
অন্য কথায়, এটি সম্ভবত ডেটাতে তাত্পর্যপূর্ণ স্তরের তথ্যের তাত্পর্যপূর্ণ না থাকে, যেমন, অনেকগুলি বৈশিষ্ট্য অত্যন্ত সংযুক্ত থাকে এবং অনেকগুলি বৈশিষ্ট্য ৮০-২০ নিয়মকে সন্তুষ্ট করে (অনেক উদাহরণের একই মান থাকে)।
এই জাতীয় ক্ষেত্রে, আমি মনে করি কেএনএন এর মতো পদ্ধতিগুলি এখনও যুক্তিসঙ্গতভাবে ভালভাবে কাজ করবে। (বেশিরভাগ বইগুলিতে "মাত্রিকতার অভিশাপ" বলে ডাইমেনশন> 10 সমস্যাযুক্ত হতে পারে their তাদের ডেমোতে তারা সমস্ত মাত্রায় অভিন্ন বিতরণ ব্যবহার করে, যেখানে এনট্রপি সত্যই বেশি I
সত্যিকারের ডেটা সহ আমার ব্যক্তিগত অভিজ্ঞতা হ'ল "মাত্রিকতার অভিশাপ" টেমপ্লেট পদ্ধতিতে (যেমন কেএনএন) খুব বেশি প্রভাবিত করে না এবং বেশিরভাগ ক্ষেত্রে, মাত্রা ~ 100 এখনও কাজ করবে।
এটা কি অন্য মানুষের জন্য সত্য? (আমি 5 বছরের জন্য বিভিন্ন শিল্পে সত্যিকারের ডেটা নিয়ে কাজ করেছি, বইটিতে বর্ণিত হিসাবে "সমস্ত দূরত্বের জোড়াগুলির একই মান রয়েছে" কখনও পর্যবেক্ষণ করে নি))