গাউসিয়ান প্রক্রিয়া মডেলগুলি উচ্চ মাত্রিক ডেটাসেটগুলির সাথে সাধারণত ভাল থাকে (আমি এগুলিকে মাইক্রোয়ারে ডেটা ইত্যাদির সাথে ব্যবহার করেছি)। তারা কী হাইপার-প্যারামিটারগুলির জন্য ভাল মানগুলি বেছে নিতে পারে (যা নিয়মিতকরণের মতো একই পদ্ধতিতে মডেলের জটিলতা নিয়ন্ত্রণ করে)।
বিপুল সংখ্যক বৈশিষ্ট্যের পরিবর্তে বিপুল সংখ্যক নমুনা (> আমার কম্পিউটারের জন্য প্রায় 4000) সহ ডেটাसेटগুলির জন্য স্পার পদ্ধতি এবং সিউডো-ইনপুট পদ্ধতিগুলি বেশি more আপনার যদি কোভেরিয়েন্স ম্যাট্রিক্সের কোলেস্কি পচানোর জন্য শক্তিশালী কম্পিউটার থাকে (এন দ্বারা এন যেখানে নমুনাগুলির সংখ্যা হয়) তবে আপনার সম্ভবত এই পদ্ধতিগুলির প্রয়োজন হবে না।
আপনি যদি একজন ম্যাটল্যাব ব্যবহারকারী হন তবে আমি জিপিএমএল টুলবক্স এবং রাসমুসেন এবং উইলিয়ামসের বইটি শুরু করার ভাল জায়গা হিসাবে সুপারিশ করব।
তবুও, আপনি যদি বৈশিষ্ট্য নির্বাচনের প্রতি আগ্রহী হন তবে আমি জিপিগুলি এড়াতে পারি। জিপি সহ বৈশিষ্ট্য নির্বাচনের মানক পদ্ধতিটি একটি স্বয়ংক্রিয় প্রাসঙ্গিক নির্ধারণ কার্নেল (যেমন জিপিএমএল-এ কোভসার্ড) ব্যবহার করা হবে এবং তারপরে প্রান্তিক সম্ভাবনা সর্বাধিকতর করতে কার্নেল প্যারামিটারগুলি সুর করে বৈশিষ্ট্য নির্বাচন অর্জন করবে। দুর্ভাগ্যক্রমে এটি খুব সম্ভবত প্রান্তিক সম্ভাবনা বেশি ফিট করে এবং একটি সাদামাটা গোলাকার রেডিয়াল বেস ফাংশন (জিপিএমএল-এ কোভএসইসো) কোভেরিয়েন্সের তুলনায় একটি মডেলের তুলনায় খারাপ (সম্ভবত অনেক) আরও খারাপ পারফর্ম করার সমাপ্তি ঘটে।
আমার বর্তমান গবেষণার কেন্দ্রবিন্দু এই মুহুর্তে মডেল নির্বাচনের অতিরিক্ত ফিটিংয়ের উপর নির্ভর করে এবং আমি দেখতে পেয়েছি যে এটি জিপিগুলিতে প্রমাণ সর্বাধিককরণের জন্য যতটা সমস্যা কারণ এটি কার্নেল মডেলগুলিতে হাইপার-প্যারানটারগুলির ক্রস-বৈধতা ভিত্তিক অপ্টিমাইজেশনের জন্য, বিশদ জন্য দেখতে এই কাগজ , এবং এই এক ।
অ-লিনিয়ার মডেলগুলির জন্য বৈশিষ্ট্য নির্বাচন করা খুব জটিল is প্রায়শই আপনি একটি লিনিয়ার মডেলের সাথে লেগে থাকা এবং এল 1 নিয়মিতকরণ ধরণের পদ্ধতির (লাসো / এলএআরএস / ইলাস্টিক নেট ইত্যাদি) স্পারসিটি বা এলোমেলো বন পদ্ধতি অর্জনের মাধ্যমে আরও ভাল পারফরম্যান্স পান।