প্রশ্ন ট্যাগ «high-dimensional»

ডেটা জন্য বিশাল সংখ্যক বৈশিষ্ট্য বা মাত্রা (ভেরিয়েবল) এর সাথে সম্পর্কিত। (বিপুল সংখ্যক ডেটা পয়েন্টের জন্য, ট্যাগটি [বৃহত-ডেটা] ব্যবহার করুন; যদি সমস্যাটি তথ্যের চেয়ে আরও বেশি পরিমাণে ভেরিয়েবল হয় তবে [নিম্ন নির্ধারিত] ট্যাগটি ব্যবহার করুন))

8
ইউক্লিডিয়ান দূরত্ব কেন উচ্চ মাত্রায় একটি ভাল মেট্রিক নয়?
আমি পড়েছি যে 'ইউক্লিডিয়ান দূরত্ব উচ্চ মাত্রায় ভাল দূরত্ব নয়'। আমি অনুমান করি এই বিবৃতিটির মাত্রিকতার অভিশাপের সাথে কিছু আছে তবে ঠিক কী? এছাড়াও 'উচ্চ মাত্রা' কী? আমি 100 বৈশিষ্ট্য সহ ইউক্লিডিয়ান দূরত্ব ব্যবহার করে শ্রেণিবদ্ধ ক্লাস্টারিং প্রয়োগ করছি applying এই মেট্রিকটি ব্যবহার করা কতগুলি বৈশিষ্ট্য পর্যন্ত 'নিরাপদ'?

11
একটি শিশুকে "মাত্রিকতার অভিশাপ" ব্যাখ্যা করুন
আমি মাত্রিকতার অভিশাপ সম্পর্কে অনেকবার শুনেছি, তবে কোনওরকমভাবে আমি এখনও ধারণাটি উপলব্ধি করতে অক্ষম, এগুলি সব কুয়াশাচ্ছন্ন। আপনি কি কোনও সন্তানের কাছে এটি ব্যাখ্যা করার মতোই কি খুব স্বজ্ঞাত উপায়ে এটি ব্যাখ্যা করতে পারেন, যাতে আমি (এবং অন্যরা যেমন আমি বিভ্রান্ত) এই বিষয়গুলি ভালোর জন্য বুঝতে পারি? সম্পাদনা করুন: এখন, …

7
বিশাল সংখ্যক বৈশিষ্ট্যগুলির জন্য সেরা পিসিএ অ্যালগরিদম (> 10 কে)?
আমি এটি স্ট্যাকওভারফ্লোতে জিজ্ঞাসা করেছি, তবে এটি এসও-তে কোনও উত্তর না পেলে এটি এখানে আরও উপযুক্ত হতে পারে বলে মনে হয়। এটি পরিসংখ্যান এবং প্রোগ্রামিংয়ের ছেদ এ এক ধরণের। আমার পিসিএ করার জন্য কিছু কোড লিখতে হবে (প্রিন্সিপাল কম্পোনেন্ট অ্যানালাইসিস)। আমি বিখ্যাত আলগোরিদিম মাধ্যমে ব্রাউজ এবং বাস্তবায়িত করেছি এই এক …

3
লাসোতে সঙ্কোচন প্যারামিটার বা> 50 কে ভেরিয়েবলগুলির সাথে রিজ রিগ্রেশন কীভাবে অনুমান করা যায়?
আমি 50,000 এর বেশি ভেরিয়েবল সহ একটি মডেলের জন্য লাসো বা রিজ রিগ্রেশন ব্যবহার করতে চাই। আমি আর তে সফ্টওয়্যার প্যাকেজ ব্যবহার করে এটি করতে চাই the সংকীর্ণ প্যারামিটার ( ) কীভাবে অনুমান করতে পারি ?λλ\lambda সম্পাদনা: আমি এখানে পৌঁছতে পয়েন্টটি এখানে: set.seed (123) Y <- runif (1000) Xv <- …

3
ভিজ্যুয়ালাইজেশনের জন্য মাত্রিকতা হ্রাস টি-এসএনই দ্বারা সমাধান করা "বন্ধ" সমস্যা হিসাবে বিবেচনা করা উচিত?
মাত্রিকতা হ্রাসের জন্য স্নে অ্যালগরিদম সম্পর্কে আমি অনেক পড়ছি । আমি এমএনআইএসটির মতো "ক্লাসিক" ডেটাসেটের পারফরম্যান্সে খুব মুগ্ধ হয়েছি যেখানে এটি সংখ্যার স্পষ্ট বিভাজন অর্জন করে ( মূল নিবন্ধটি দেখুন ):টিটিt আমি এটি প্রশিক্ষণ নিচ্ছিলাম এমন একটি নিউরাল নেটওয়ার্ক দ্বারা শিখে নেওয়া বৈশিষ্ট্যগুলি ভিজ্যুয়ালাইজ করার জন্যও এটি ব্যবহার করেছি এবং …

1
লাসো কেন আমার উচ্চতর মাত্রাতে নিখুঁত ভবিষ্যদ্বাণী জুটি খুঁজে পাচ্ছে না?
আমি যদি একটি নিখুঁত ভবিষ্যদ্বাণী জুটি খুঁজে পেতে সক্ষম হয় তা পরীক্ষা করতে আমি আর এস এ ল্যাসো রিগ্রেশন নিয়ে একটি ছোট পরীক্ষা চালাচ্ছি। জোড়টিকে এইরকম সংজ্ঞায়িত করা হয়: f1 + f2 = ফলাফল এখানে ফলাফলটি 'বয়স' নামে পরিচিত একটি পূর্বনির্ধারিত ভেক্টর। F1 এবং f2 বয়স ভেক্টরের অর্ধেক নিয়ে এবং …

1
টি-এসএনই প্রয়োগের আগে ডেটা কেন্দ্রীকরণ + স্কেল করা উচিত?
আমার ডেটাগুলির কয়েকটি বৈশিষ্ট্যের বড় মান রয়েছে, অন্য বৈশিষ্ট্যগুলির মধ্যে খুব ছোট মান রয়েছে। বৃহত্তর মানগুলির প্রতি পক্ষপাতিত্ব রোধ করতে টি-এসএনই প্রয়োগ করার আগে কি + স্কেল ডেটা কেন্দ্র করা প্রয়োজন? আমি পাইথনের sklearn.manifold.TSNE বাস্তবায়ন ডিফল্ট ইউক্লিডিয়ান দূরত্বের মেট্রিকের সাথে ব্যবহার করি।

4
"মাত্রিকতার অভিশাপ" কি সত্যই ডেটাতে উপস্থিত রয়েছে?
আমি বুঝতে পারি "মাত্রিকতার অভিশাপ" কী, এবং আমি কিছু উচ্চ মাত্রিক অপ্টিমাইজেশান সমস্যাগুলি করেছি এবং তাত্পর্যপূর্ণ সম্ভাবনার চ্যালেঞ্জটি জানি। তবে, আমি সন্দেহ করি যে বেশিরভাগ বাস্তব বিশ্বের ডেটাতে "মাত্রিকতার অভিশাপ" উপস্থিত রয়েছে কিনা (ভালভাবে একটি চিত্রের জন্য ছবি বা ভিডিওগুলি একপাশের জন্য রেখে দেওয়া যাক, আমি গ্রাহক ডেমোগ্রাফিক এবং ক্রয় …

1
হাই-ডাইমেনশনাল রিগ্রেশন: বিশেষ কেন?
আমি উচ্চ-মাত্রিক রিগ্রেশন অঞ্চলে গবেষণাটি পড়তে চেষ্টা করছি; যখন চেয়ে বড় হয়, । মনে হচ্ছে শব্দটি প্রায়শই রিগ্রেশন আনুমানিকের জন্য রূপান্তর হারের ক্ষেত্রে দেখা যায় termsএন পি > > এন লগ পি / এনpppnnnp>>np>>np >> nlogp/nlog⁡p/n\log p/n উদাহরণস্বরূপ, এখানে সমীকরণ (17) বলছে যে লাসো ফিট, সন্তুষ্ট 1β^β^\hat{\beta}1n∥Xβ^−Xβ∥22=OP(σlogpn−−−−−√∥β∥1).1n‖Xβ^−Xβ‖22=OP(σlog⁡pn‖β‖1). \dfrac{1}{n}\|X\hat{\beta} - X …

1
মাত্রিকতা অভিশাপগুলি কিছু মডেলকে অন্যের চেয়ে বেশি প্রভাবিত করে?
আমি মাত্রাগুলি অভিশাপ সম্পর্কে যে জায়গাগুলি পড়ছি সেগুলি প্রাথমিকভাবে কেএনএন এবং সাধারণভাবে রৈখিক মডেলগুলির সাথে একত্রে এটি ব্যাখ্যা করে। আমি নিয়মিত ক্যাগলে শীর্ষস্থানীয় র‌্যাটার্সকে ডেটাসেটে এমন হাজার হাজার বৈশিষ্ট্য ব্যবহার করে দেখি যা খুব কমই 100 কে ডেটা পয়েন্ট থাকে। এগুলি সাধারণত অন্যদের মধ্যে বুস্টেড গাছ এবং এনএন ব্যবহার করে। …

3
এলোমেলো বন শ্রেণিবদ্ধকরণের আগে উচ্চ-মাত্রিক পাঠ্য ডেটাতে পিসিএ?
এলোমেলো বন শ্রেণিবদ্ধকরণ করার আগে পিসিএ করা কি বোধগম্য? আমি উচ্চ মাত্রিক পাঠ্য ডেটা নিয়ে কাজ করছি, এবং মাত্রিকতার অভিশাপ এড়াতে সহায়তা করতে আমি বৈশিষ্ট্য হ্রাস করতে চাই, তবে র্যান্ডম অরণ্যগুলি ইতিমধ্যে কোনও ধরণের মাত্রা হ্রাস করার পক্ষে নয়?


2
3 টি মাত্রায় একাধিক লিনিয়ার রিগ্রেশন কি সেরা ফিটের একটি বিমান বা সেরা ফিটের একটি লাইন?
আমাদের অধ্যাপক একাধিক লিনিয়ার রিগ্রেশন গণিত বা এমনকি জ্যামিতিক উপস্থাপনা পাচ্ছেন না এবং এটি আমাকে সামান্য বিভ্রান্ত করেছে। একদিকে এটিকে এখনও একাধিক লিনিয়ার রিগ্রেশন বলা হয় , এমনকি উচ্চ মাত্রায়ও। অন্যদিকে, আমরা উদাহরণস্বরূপ আছে যদি এবং আমরা কোন মানের মধ্যে চলা করতে পারেন আমরা জন্য চাই এবং , এই আমাদের …

4
মাত্রিকতার অভিশাপ: কেএনএন শ্রেণিবদ্ধকারী
আমি কেভিন মারফি বইটি পড়ছি: মেশিন লার্নিং-এ সম্ভাব্য দৃষ্টিভঙ্গি। প্রথম অধ্যায়ে লেখক মাত্রিকতার অভিশাপ ব্যাখ্যা করছেন এবং এর একটি অংশ রয়েছে যা আমি বুঝতে পারি না। উদাহরণ হিসাবে, লেখক বলেছেন: ইনপুটগুলি ডি-ডাইমেনশনাল ইউনিট কিউবে সমানভাবে বিতরণ করা হয়েছে তা বিবেচনা করুন। ধরুন আমরা x কাছাকাছি একটি অধি ঘনক্ষেত্র ক্রমবর্ধমান দ্বারা …

1
ব্যয়ের এট আল এর তুলনামূলক বৈকল্পিক উপপাদ্য। কাগজ: "হাই ডাইমেনশনাল স্পেসে দূরত্বের মেট্রিকের বিস্ময়কর আচরণের উপর" বিভ্রান্তিকর?
মাত্রিকতার অভিশাপের কথা উল্লেখ করার সময় এটি প্রায়শই উদ্ধৃত করা হয় এবং যায় (আপেক্ষিক বৈপরীত্য বলা ডান হাতের সূত্র) লিমঘ→ ∞var ( | | এক্স)ঘ| |টই[ | | এক্সঘ| |ট]) =0,তারপরে: ডিসর্বোচ্চটঘ- ডিসর্বনিম্নটঘডিসর্বনিম্নটঘ→ 0লিমঘ→∞Var(||এক্সঘ||টই[||এক্সঘ||ট])=0,তারপর:ডিসর্বোচ্চঘট-ডিসর্বনিম্নঘটডিসর্বনিম্নঘট→0 \lim_{d\rightarrow \infty} \text{var} \left(\frac{||X_d||_k}{E[||X_d||_k]} \right) = 0, \text{then}: \frac{D_{\max^{k}_{d}} - D_{\min^{k}_{d}}}{D_{\min^{k}_{d}}} \rightarrow 0 উপপাদ্যের ফলাফলটি দেখায় …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.