প্রশ্ন ট্যাগ «dimensionality-reduction»

সম্ভব তথ্য হিসাবে যতটা তথ্য সংরক্ষণ করার জন্য ডেটা দ্বারা বিস্তৃত পরিমাণে ভেরিয়েবল বা মাত্রাগুলি একটি অল্প সংখ্যক মাত্রায় হ্রাস করার কৌশলগুলি বোঝায়। বিশিষ্ট পদ্ধতিগুলির মধ্যে রয়েছে পিসিএ, এমডিএস, আইসোম্যাপ ইত্যাদি techniques কৌশলগুলির মূল দুটি সাবক্লাস: বৈশিষ্ট্য নিষ্কাশন এবং বৈশিষ্ট্য নির্বাচন।

1
কার্নেল আনুমানিককরণের জন্য Nystroem পদ্ধতি
আমি নিম্ন র‌্যাঙ্কের কার্নেল এপ্রোক্সিমেশনের জন্য Nyström পদ্ধতি সম্পর্কে পড়ছি। এই পদ্ধতিটি সাইকিট-লার্নে প্রয়োগ করা হয়েছে [1] কার্নেল বৈশিষ্ট্য ম্যাপিংয়ের নিম্ন-স্তরের প্রাক্কলনে ডেটা নমুনাগুলি প্রজেক্ট করার পদ্ধতি হিসাবে। আমার জ্ঞানের সেরা হিসাবে, একটি প্রশিক্ষণ সেট given এবং একটি কার্নেল ফাংশন দেওয়া হয়েছে, এটি এসভিডি প্রয়োগ করে একটি কার্নেল ম্যাট্রিক্স একটি …

4
অটোরকোডার এবং টি-এসএনইয়ের মধ্যে পার্থক্য কী?
যতদূর আমি জানি, অটোইনকোডার এবং টি-এসএনই উভয়ই অরৈখিক মাত্রিকতা হ্রাস করার জন্য ব্যবহৃত হয়। তাদের মধ্যে পার্থক্যগুলি কী এবং কেন আমি অন্যকে বনাম ব্যবহার করব?

3
সমস্ত ভেরিয়েবল প্রায় অর্থেগোনাল যেখানে এমন কোনও ডেটা সেটের মাত্রা হ্রাসের কোনও মান আছে?
ধরুন আমার কাছে একটি মাত্রিক ডেটা সেট রয়েছে যেখানে মাত্রাগুলি মোটামুটি orthogonal (পারস্পরিক সম্পর্ক শূন্য আছে)।NNNNNN শর্তে কোন ইউটিলিটি আছে: কল্পনা প্রতিনিধিত্ব (শ্রেণিবদ্ধ দক্ষতার জন্য) বা অন্যান্য মানদণ্ড ডেটা উপর মাত্রা হ্রাস সম্পাদন করতে?

8
উচ্চ মাত্রিক ডেটা ভিজ্যুয়ালাইজ করা
আমার কাছে দুটি শ্রেণীর নমুনা রয়েছে যা উচ্চ মাত্রিক স্থানের ভেক্টর এবং আমি তাদের 2D বা 3 ডি তে প্লট করতে চাই। আমি মাত্রিকতা হ্রাস কৌশল সম্পর্কে জানি, তবে আমার সত্যিকারের সহজ এবং সহজে ব্যবহারের সরঞ্জাম প্রয়োজন (মাতলাব, পাইথন বা একটি প্রাক-বিল্ট। এক্সে)। এছাড়াও আমি ভাবছি 2D এর প্রতিনিধিত্ব কি …

3
ফ্যাক্টর বিশ্লেষণের অনুমানগুলি কী কী?
আমি সত্যিই [ক্লাসিক, রৈখিক] ফ্যাক্টর বিশ্লেষণ (এফএ) বুঝতে পেরেছি কিনা তা আমি খতিয়ে দেখতে চাই , বিশেষত অনুমানগুলি যা এফএর আগে তৈরি হয়েছিল (এবং সম্ভবত পরে)। কিছু ডেটা প্রাথমিকভাবে পারস্পরিক সম্পর্কযুক্ত হওয়া উচিত এবং তাদের মধ্যে একটি সম্ভাব্য রৈখিক সম্পর্ক রয়েছে। ফ্যাক্টর বিশ্লেষণ করার পরে, তথ্যগুলি সাধারণত বিতরণ করা হয় …

2
প্রতিরোধের উদ্দেশ্যে ভবিষ্যদ্বাণীকারীদের মাত্রিকতা হ্রাস করার সুবিধা কী?
ট্র্যাডিশনাল রিগ্রেশন কৌশল (কোন মাত্রা হ্রাস ছাড়াই) এর চেয়ে বেশি মাত্রা হ্রাস রিগ্রেশন (ডিআরআর) বা তত্ত্বাবধানের মাত্রিকতা হ্রাস (এসডিআর) কৌশলগুলির অ্যাপ্লিকেশন বা সুবিধা কী ? এই শ্রেণীর কৌশলগুলি রিগ্রেশন সমস্যার জন্য বৈশিষ্ট্যটির সেটটির একটি নিম্ন-মাত্রিক উপস্থাপনা খুঁজে পায়। এই জাতীয় কৌশলগুলির উদাহরণগুলির মধ্যে রয়েছে স্লাইসড ইনভার্স রিগ্রেশন, প্রিন্সিপাল হেসিয়ান দিকনির্দেশ, …

7
বিভিন্ন ধরণের দেশ চিহ্নিত করার জন্য ডেটা হ্রাস প্রযুক্তি
আমি একটি প্রারম্ভিক অর্থনৈতিক ভূগোল কোর্স পড়ান। আমার ছাত্রদের সমসাময়িক বিশ্ব অর্থনীতিতে প্রাপ্ত দেশগুলির ধরণের আরও ভাল বোঝার বিকাশ এবং ডেটা হ্রাস প্রযুক্তির প্রশংসা বিকাশের জন্য, আমি এমন একটি অ্যাসাইনমেন্ট তৈরি করতে চাই যা বিভিন্ন ধরণের দেশগুলির টাইপোলজি তৈরি করে (যেমন, উচ্চ-আয়ের উচ্চ- এমএফজি দীর্ঘ জীবন প্রত্যাশার মান; উচ্চ আয়ের …

2
মাত্রা হ্রাস করার জন্য টি-এসএনইর জন্য পরামিতিগুলি কীভাবে নির্ধারণ করবেন?
আমি শব্দ এম্বেডিং খুব নতুন। আমি কীভাবে দস্তাবেজগুলি শেখার পরে নজর রাখছি তা কল্পনা করতে চাই ize আমি পড়েছি যে টি-এসএনই হ'ল এটি করার পন্থা। এম্বেডিংয়ের আকার হিসাবে 250 টি মাত্রা সহ আমার কাছে 100K ডকুমেন্ট রয়েছে। পাশাপাশি বেশ কয়েকটি প্যাকেজ উপলব্ধ রয়েছে। তবে, টি-এসএনই-র জন্য, আমি জানি না কতটা …

3
প্রথম প্রধান উপাদানটি পৃথক শ্রেণি পৃথক করে না, তবে অন্যান্য পিসি করে; কীভাবে সম্ভব?
একটি ছোট ভেরিয়েবলের সেট নির্ধারণের জন্য আমি 17 টি পরিমাণগত ভেরিয়েবলের উপর পিসিএ চালিয়েছি, এটি প্রধান উপাদান, দুটি শ্রেণিতে শ্রেণিবদ্ধকরণের জন্য তদারকি করা মেশিন লার্নিংয়ে ব্যবহৃত হতে পারে। পিসিএর পরে পিসি 1 ডেটাতে 31% পার্থক্য রাখে, পিসি 2 অ্যাকাউন্টে 17%, পিসি 3 10%, পিসি 4 অ্যাকাউন্ট 8%, পিসি 5 অ্যাকাউন্ট …

2
পিসিএ কেন প্রক্ষেপণের মোট বৈকল্পিকতা সর্বাধিক করে?
ক্রিস্টোফার বিশপ তার প্রমাণ প্যাটার্ন রিকগনিশন অ্যান্ড মেশিন লার্নিং প্রুফ গ্রন্থে লিখেছেন যে পূর্ববর্তী নির্বাচিত উপাদানগুলিতে ডেটা অরথোগোনাল স্পেসে প্রত্যাশিত হওয়ার পরে প্রতিটি পর পরের মূল উপাদানটি একটি মাত্রার প্রক্ষেপণের বৈচিত্রকে সর্বাধিক করে তোলে। অন্যরা অনুরূপ প্রমাণ দেখায়। যাইহোক, এটি কেবল প্রমাণ করে যে প্রতিটি ক্রমাগত উপাদানই একটি মাত্রার সর্বাধিক …

4
"র্যান্ডম প্রজেকশন" কঠোরভাবে কোনও প্রক্ষেপণ বলছে না?
র‌্যান্ডম প্রজেকশন অ্যালগরিদমের বর্তমান বাস্তবায়নগুলি একটি ডি × কে প্রজেকশন ম্যাট্রিক্স আর এর প্রবেশদ্বারগুলি উপযুক্ত ডিস্ট্রিবিউশন থেকে আইড করা (যেমন এন ( 0 , 1 ) ) দ্বারা আরঘRd\mathbb R^d থেকে আরটRk\mathbb R^k ম্যাপিং করে ডেটা নমুনাগুলির মাত্রিকতা হ্রাস করে :ঘ× কেd×kd\times kRRRN(0,1)N(0,1)\mathcal N(0,1) x′=1k√xRx′=1kxRx^\prime = \frac{1}{\sqrt k}xR সুবিধামতভাবে, তাত্ত্বিক …

3
আপনি শ্রেণিবিন্যাসে এলডিএর পরিবর্তে পিসিএ কখন ব্যবহার করবেন?
আমি এই নিবন্ধটি মূল উপাদান উপাদান বিশ্লেষণ এবং একাধিক বৈষম্য বিশ্লেষণ (লিনিয়ার বৈষম্য বিশ্লেষণ) এর মধ্যে পার্থক্য নিয়ে পড়ছি এবং আমি কেন এমডিএ / এলডিএর চেয়ে পিসিএ ব্যবহার করবে তা বোঝার চেষ্টা করছি। ব্যাখ্যাটির সংক্ষিপ্তসার নিম্নরূপ: মোটামুটি পিসিএ ভাষায় আমরা সর্বোচ্চ বৈকল্পের অক্ষগুলি সন্ধান করার চেষ্টা করছি যেখানে ডেটা সর্বাধিক …

1
বড় আকারের পিসিএও কি সম্ভব?
প্রধান উপাদান বিশ্লেষণ '(পিসিএ) ক্লাসিকাল পদ্ধতিতে এটি কোনও ইনপুট ডেটা ম্যাট্রিক্সে করা হয় যার কলামগুলির শূন্য মানে হয় (তারপরে পিসিএ "বৈচিত্র্যকে সর্বাধিক করতে পারে")। কলামগুলি কেন্দ্র করে সহজেই এটি অর্জন করা যায়। হাভেনভার, যখন ইনপুট ম্যাট্রিক্স বিচ্ছিন্ন হয়, কেন্দ্রিক ম্যাট্রিক্সটি এখন আর বিচ্ছিন্ন হয়ে যায় এবং - ম্যাট্রিক্সটি যদি খুব …

1
মিশ্র অবিচ্ছিন্ন এবং বাইনারি ভেরিয়েবলের সাথে টি-এসএনই
আমি বর্তমানে টি-এসএনই ব্যবহার করে উচ্চ-মাত্রিক ডেটা ভিজ্যুয়ালাইজেশন তদন্ত করছি investigating আমার কাছে মিশ্রিত বাইনারি এবং অবিচ্ছিন্ন ভেরিয়েবলগুলির সাথে কিছু ডেটা রয়েছে এবং বাইনারি ডেটা খুব সহজেই ক্লাস্টার হিসাবে উপস্থিত হয়। অবশ্যই এটি পরিমিত (0 এবং 1 এর মধ্যে) ডেটার জন্য প্রত্যাশিত: ইউক্যালিডিয়ান দূরত্ব বাইনারি ভেরিয়েবলগুলির মধ্যে সর্বদা সর্বকালের / …

1
আর লিনিয়ার রিগ্রেশন শ্রেণিবদ্ধ পরিবর্তনশীল "লুকানো" মান
এটি কেবলমাত্র একটি উদাহরণ যা আমি বেশ কয়েকবার এসেছি, সুতরাং আমার কোনও নমুনা ডেটা নেই। আরে লিনিয়ার রিগ্রেশন মডেল চালাচ্ছেন: a.lm = lm(Y ~ x1 + x2) x1একটি অবিচ্ছিন্ন পরিবর্তনশীল। x2শ্রেণীবদ্ধ এবং এর তিনটি মান রয়েছে যেমন "নিম্ন", "মাঝারি" এবং "উচ্চ"। তবে আর দ্বারা প্রদত্ত আউটপুটটি এরকম কিছু হবে: summary(a.lm) …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.