প্রশ্ন ট্যাগ «manifold-learning»

3
বহুগুণ কী?
মাত্রা হ্রাস কৌশল যেমন অধ্যক্ষ উপাদান উপাদান বিশ্লেষণ, এলডিএ ইত্যাদি প্রায়শই বহুগুণ শব্দটি ব্যবহৃত হয়। নন-টেকনিক্যাল টার্মে বহুগুণ কী? যদি একটি বিন্দু এমন একটি গোলকের সাথে সম্পর্কিত যার মাত্রাটি আমি হ্রাস করতে চাই এবং যদি কোনও শব্দ এবং এবং এবং অপ্রস্তুত হয় তবে শব্দের কারণে প্রকৃত পয়েন্ট একে অপরের থেকে …

2
"ননলাইনার" কীভাবে "ননলাইনারের মাত্রা হ্রাস" হিসাবে বোঝা যায়?
আমি লিনিয়ার মাত্রিকতা হ্রাস পদ্ধতির (যেমন, পিসিএ) এবং ননলাইনারের (যেমন, আইসোম্যাপ) মধ্যে পার্থক্যগুলি বোঝার চেষ্টা করছি। এই প্রসঙ্গে (অ) রৈখিকতা কী বোঝায় তা আমি বেশ বুঝতে পারি না। আমি উইকিপিডিয়া থেকে পড়েছি যে তুলনা করে, যদি পিসিএ (একটি রৈখিক মাত্রিকতা হ্রাস অ্যালগরিদম) একই ডেটাসেটটিকে দুটি মাত্রায় হ্রাস করতে ব্যবহার করা …

2
আধা তত্ত্বাবধানে শেখার ক্ষেত্রে বহুগুণ অনুমান কী?
আমি আধা-তত্ত্বাবধানে শিক্ষায় বহুগুণ অনুমানের অর্থ কী তা বোঝার চেষ্টা করছি। কেউ কি সহজ উপায়ে ব্যাখ্যা করতে পারেন? এর পিছনে অন্তর্দৃষ্টি আমি পেতে পারি না। এটি বলে যে আপনার ডেটা উচ্চ মাত্রিক জায়গাতে এমবেড করা নিম্ন-মাত্রিক বহুগুণে থাকে। তার মানে আমি পাইনি।

1
কার্নেল পিসিএর জন্য কার্নেলটি কীভাবে চয়ন করবেন?
কার্নেল পিসিএ (মূল উপাদান বিশ্লেষণ) দ্বারা চূড়ান্ত ডেটা আউটপুটে ভাল ডেটা বিচ্ছিন্নতার ফলাফল কী তা চয়ন করার উপায়গুলি কী কী এবং কার্নেলের প্যারামিটারগুলি অনুকূল করার উপায়গুলি কী কী? সম্ভব হলে লেম্যানের শর্তাদি ব্যাপকভাবে প্রশংসিত হবে এবং এই জাতীয় পদ্ধতিগুলির ব্যাখ্যা করে এমন কাগজের লিঙ্কগুলিও দুর্দান্ত হবে।

2
বহুগুণে পরিসংখ্যানগুলির গ্রাফিকাল স্বজ্ঞাততা
উপর এই পোস্টটি , আপনি বিবৃতি পড়তে পারেন: মডেল সাধারণত পয়েন্ট দ্বারা প্রতিনিধিত্ব করা হয় θθ\theta একটি নির্দিষ্ট মাত্রিক নানাবিধ উপর। উপর ডিফারেনশিয়াল জ্যামিতি ও পরিসংখ্যান মাইকেল কে মারে এবং জন ডব্লিউ রাইস দ্বারা এই ধারণার পাঠযোগ্য এমনকি গাণিতিক এক্সপ্রেশন উপেক্ষা গদ্য ব্যাখ্যা করা আছে। দুর্ভাগ্যক্রমে, খুব কম চিত্র আছে। …

1
বহুগুণে পড়াশোনা এবং অ-লিনিয়ার মাত্রিকতা হ্রাসের মধ্যে পার্থক্য কী?
বহুগুণে পড়াশোনা এবং অ-লিনিয়ার মাত্রিকতা হ্রাসের মধ্যে পার্থক্য কী ? আমি এই দুটি পদটি বিনিময়যোগ্যভাবে ব্যবহৃত হতে দেখেছি। উদাহরণ স্বরূপ: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : ম্যানিফোল্ড লার্নিং (প্রায়শই অ-রৈখিক মাত্রিক হ্রাস হিসাবেও পরিচিত) ডেটা এম্বেড করার লক্ষ্যটি অনুসরণ করে যা মূলত নিম্ন মাত্রিক জায়গাতে একটি উচ্চ মাত্রিক স্থানে থাকে, যখন বৈশিষ্ট্যযুক্ত বৈশিষ্ট্যগুলি সংরক্ষণ …

2
কীভাবে প্রমাণ করবেন যে বহুগুণ অনুমানটি সঠিক?
মেশিন লার্নিংয়ে, প্রায়শই ধরে নেওয়া হয় যে একটি ডেটা সেট একটি স্বাচ্ছন্দ্য নিম্ন-মাত্রিক বহুগুণ (বহুবিধ অনুমান) এর উপর নির্ভর করে তবে কিছু শর্তটি সন্তুষ্ট বলে ধরে নিবারণের কোনও উপায় আছে, তবে ডেটা সেটটি প্রকৃতপক্ষে (আনুমানিক) উত্পন্ন হয়েছে নিম্ন মাত্রিক মসৃণ বহুগুণ থেকে? উদাহরণস্বরূপ, একটি ডেটা সিকোয়েন্স দেওয়া হয়েছে যেখানে (বিভিন্ন …
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.