প্রশ্ন ট্যাগ «pca»

প্রধান উপাদান বিশ্লেষণ (পিসিএ) একটি লিনিয়ার মাত্রিকতা হ্রাস কৌশল। এটি যতটা সম্ভব তথ্য (তত বেশি বৈকল্পিক) সংরক্ষণ করে নির্মিত ভেরিয়েবলগুলির একটি ছোট সেটটিতে একটি মাল্টিভিয়ারেট ডেটাসেট হ্রাস করে। এই ভেরিয়েবলগুলি, প্রধান উপাদান হিসাবে পরিচিত, ইনপুট ভেরিয়েবলের লিনিয়ার সংমিশ্রণ।

2
প্রধান উপাদান বিশ্লেষণে বাইপলটসের ব্যাখ্যা
আমি এই সুন্দর টিউটোরিয়ালটি পেরিয়ে এসেছি: আর। ব্যবহার করে পরিসংখ্যান বিশ্লেষণের একটি হ্যান্ডবুক Chapter অধ্যায় 13. অধ্যক্ষ উপাদান উপাদান বিশ্লেষণ: কীভাবে আর ভাষায় পিসিএ করবেন সে বিষয়ে অলিম্পিক হেপটাথলন । আমি চিত্র 13.3 এর ব্যাখ্যা বুঝতে পারি না: তাই আমি প্রথম ইগেনভেક્ટર বনাম দ্বিতীয় ইগেনভেেক্টর ষড়যন্ত্র করছি। ওটার মানে কি? …

1
কেন কেন্দ্রিং পিসিএ (এসভিডি এবং ইগেন পচানোর জন্য) মধ্যে পার্থক্য আনতে পারে?
আপনার ডেটা পিসিএর জন্য কেন্দ্রীভূত করে (বা ডি-অর্থ)? আমি শুনেছি এটি গণিতকে সহজ করে তোলে বা এটি প্রথম পিসিকে ভেরিয়েবলগুলির মাধ্যম দ্বারা প্রভাবিত হতে বাধা দেয় তবে আমার মনে হয় আমি এখনও দৃ feel়ভাবে ধারণাটি উপলব্ধি করতে সক্ষম হইনি। উদাহরণস্বরূপ, শীর্ষস্থানীয় উত্তর এখানে ডেটা কেন্দ্রীকরণ কীভাবে রিগ্রেশন এবং পিসিএর বিরতি …
30 r  pca  svd  eigenvalues  centering 

1
বাইনারি ডেটাতে প্রধান উপাদান বিশ্লেষণ বা ফ্যাক্টর বিশ্লেষণ করা
বিপুল সংখ্যক হ্যাঁ / না প্রতিক্রিয়া সহ আমার একটি ডেটাসেট রয়েছে। আমি কি এই জাতীয় ডেটার জন্য প্রধান উপাদান (পিসিএ) বা অন্য কোনও ডেটা হ্রাস বিশ্লেষণ (যেমন ফ্যাক্টর বিশ্লেষণ) ব্যবহার করতে পারি? এসপিএসএস ব্যবহার করে কীভাবে আমি এটি করতে যাচ্ছি দয়া করে পরামর্শ দিন।

5
মেশিন লার্নিংয়ের শ্রেণিবদ্ধ / নেস্টেড ডেটা কীভাবে মোকাবেলা করবেন
আমি আমার সমস্যাটি একটি উদাহরণ দিয়ে ব্যাখ্যা করব। ধরুন আপনি কোনও ব্যক্তির আয়ের ভবিষ্যদ্বাণী করতে চান এমন কয়েকটি বৈশিষ্ট্য দেওয়া হয়েছে: {বয়স, লিঙ্গ, দেশ, অঞ্চল, শহর} আপনার মতো প্রশিক্ষণ ডেটাসেট রয়েছে train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
গুণক বিশ্লেষণে সেরা ফ্যাক্টর নিষ্কাশন পদ্ধতি
এসপিএসএস ফ্যাক্টর আহরণের বিভিন্ন পদ্ধতি সরবরাহ করে: প্রধান উপাদান (যা মোটেও ফ্যাক্টর বিশ্লেষণ নয়) অপ্রকাশিত সর্বনিম্ন স্কোয়ার সাধারণত সর্বনিম্ন স্কোয়ার সর্বাধিক সম্ভাবনা অধ্যক্ষ অক্ষ আলফা ফ্যাক্টরিং চিত্র ফ্যাক্টরিং প্রথম পদ্ধতিটি উপেক্ষা করা, যা ফ্যাক্টর বিশ্লেষণ নয় (তবে মূল উপাদান বিশ্লেষণ, পিসিএ), এই পদ্ধতিগুলির মধ্যে কোনটি "সেরা"? বিভিন্ন পদ্ধতির আপেক্ষিক সুবিধা …

3
পিসিএর মাধ্যমে অরথোগোনাল রিগ্রেশন (মোট সর্বনিম্ন স্কোয়ারস) কীভাবে সম্পাদন করবেন?
আমি সবসময় ব্যবহার lm()দ রৈখিক রিগ্রেশনের সম্পাদন করতে উপর । এই ফাংশনটি একটি সহগ যেমনx β y = β x ।yyyxxxββ\betay=βx.y=βx.y = \beta x. আজ আমি মোট সর্বনিম্ন স্কোয়ার সম্পর্কে শিখেছি এবং এটি princomp()সম্পাদন করার জন্য সেই ফাংশন (প্রধান উপাদান বিশ্লেষণ, পিসিএ) ব্যবহার করা যেতে পারে। এটি আমার পক্ষে ভাল …

4
অ্যান্ড্রু এনজি কেন পিসিএ করার জন্য এসভিডি এবং কোভারিয়েন্স ম্যাট্রিক্সের ইআইজি নয়?
আমি অ্যান্ড্রু এনজির কোরাসেরা কোর্স এবং অন্যান্য উপকরণ থেকে পিসিএ অধ্যয়ন করছি। স্ট্যানফোর্ড এনএলপি কোর্সে CS224n এর প্রথম অ্যাসাইনমেন্ট এবং অ্যান্ড্রু এনগের বক্তৃতার ভিডিওতে তারা কোভরিয়েন্স ম্যাট্রিক্সের ইগেনভেেক্টর পচানোর পরিবর্তে একক মানের মূল্য পচন করে এবং এনজিও বলেছে যে এসভিডি ইজেনডিকোপজিশনের চেয়ে সংখ্যাগতভাবে আরও স্থিতিশীল। আমার বোঝার থেকে, পিসিএ আমরা …

1
অর্ডিনাল বা বাইনারি ডেটার জন্য ফ্যাক্টর বিশ্লেষণ বা পিসিএ আছে?
আমি অবিচ্ছিন্ন হিসাবে প্রধান উপাদান উপাদান বিশ্লেষণ (পিসিএ), অনুসন্ধানের ফ্যাক্টর বিশ্লেষণ (ইএফএ) এবং কনফার্মেটরি ফ্যাক্টর অ্যানালাইসিস (সিএফএ) সম্পন্ন করেছি পরিবর্তনশীল। তারপরে, লাভায়ান ব্যবহার করে, আমি সিএফএর পুনরাবৃত্তিটি ভেরিয়েবলগুলি শ্রেণীবদ্ধ হিসাবে সংজ্ঞায়িত করেছি। আমি জানতে চাই কী ধরণের বিশ্লেষণগুলি উপযুক্ত হবে এবং পিসিএ এবং ইএফএ এর সমতুল্য হবে যখন ডেটা প্রকৃতির …

1
স্বাধীনতার ডিগ্রি কি একটি অ-পূর্ণসংখ্যার সংখ্যা হতে পারে?
আমি যখন জিএএম ব্যবহার করি তখন এটি আমাকে অবশিষ্ট ডিএফ (কোডের শেষ লাইন)। ওটার মানে কি? জিএএম উদাহরণ ছাড়িয়ে যান, সাধারণভাবে, স্বাধীনতার ডিগ্রির সংখ্যাটি একটি অ-পূর্ণসংখ্যার সংখ্যা হতে পারে?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

4
আর-টি ব্যবহার করে ডাইমেনশনাল হ্রাসের জন্য টি-এসএনই বনাম পিসিএতে কী সমস্যা?
আমার কাছে 336x256 ভাসমান পয়েন্ট সংখ্যা (336 ব্যাকটিরিয়াল জিনোম (কলাম) x 256 নরমালাইজড টেট্রেনোক্লাইটাইড ফ্রিকোয়েন্সি (সারি) এর ম্যাট্রিক্স রয়েছে, যেমন প্রতিটি কলামে 1 টি যোগ হয়)। আমি যখন নীতি উপাদান উপাদান বিশ্লেষণ ব্যবহার করে আমার বিশ্লেষণ চালাই তখন আমি ভাল ফলাফল পাই। প্রথমে আমি ডেটাতে কমেন্স ক্লাস্টারগুলি গণনা করি, তারপরে …
27 r  pca  tsne 

5
কোন শ্রেণিবদ্ধের ফলাফল খারাপ করার জন্য পিসিএ কী কারণ হতে পারে?
আমার একটি শ্রেণিবদ্ধ রয়েছে যা আমি ক্রম-বৈধকরণের সাথে সাথে একশত বা আরও বৈশিষ্ট্যগুলি সহ বৈশিষ্ট্যগুলির অনুকূল সংমিশ্রণগুলি সন্ধানের জন্য আমি এগিয়ে নির্বাচন করে যাচ্ছি। আমি এটি পিসিএর সাথে একই পরীক্ষা চালানোর বিরুদ্ধেও তুলনা করি, যেখানে আমি সম্ভাব্য বৈশিষ্ট্যগুলি গ্রহণ করি, এসভিডি প্রয়োগ করি, মূল সংকেতগুলিকে নতুন স্থানাঙ্ক স্থানে রূপান্তর করি …

4
পিসিএ বা এফএর জন্য ন্যূনতম নমুনার আকার যখন মূল লক্ষ্যটি কেবলমাত্র কয়েকটি উপাদান অনুমান করা যায়?
আমার কাছে যদি পর্যবেক্ষণ এবং ভেরিয়েবল (মাত্রা) সহ একটি ডেটাসেট থাকে এবং সাধারণত ছোট হয় ( ), এবং ছোট ( ) থেকে সম্ভবত অনেক বড় ( ) হতে পারে )।পি এন এন = 12 - 16 পি পি = 4 - 10 পি = 30 - 50এনnnপিppএনnnn = 12 - …

1
পিসিএ কেন বিদেশীদের প্রতি সংবেদনশীল?
এই এসইতে অনেকগুলি পোস্ট রয়েছে যা মূল উপাদানগুলির বিশ্লেষণের (পিসিএ) দৃ rob় পদ্ধতির বিষয়ে আলোচনা করে তবে পিসিএ কেন প্রথমে বিদেশীদের প্রতি সংবেদনশীল তা সম্পর্কে একটিও ভাল ব্যাখ্যা আমি পাই না ।

1
পিসিএর সাথে প্রাপ্ত নিম্ন-র‌্যাঙ্কের আনুমানিক ম্যাট্রিক্স দ্বারা পুনর্গঠনের ত্রুটির কোন আদর্শটি হ্রাস করা যায়?
ম্যাট্রিক্স একটি পিসিএ (অথবা SVD) পড়তা দেওয়া সঙ্গে একটি ম্যাট্রিক্স , আমরা জানি যে শ্রেষ্ঠ কম-সারির পড়তা হয় ।এক্সXXXএক্স এক্সX^X^\hat XX^X^\hat XXXX এই অনুযায়ী হয় প্ররোচক আদর্শ∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 ∥ ⋅ ∥ এফ (অর্থাত বৃহত্তম eigenvalue আদর্শ) অথবা অনুযায়ী Frobenius করার আদর্শ?∥⋅∥F∥⋅∥F\parallel \cdot \parallel_F

7
ম্যাট্রিক্সের কলামগুলির মধ্যে রৈখিক নির্ভরতার জন্য পরীক্ষা করা
আমার সুরক্ষা ফেরতের একটি পারস্পরিক সম্পর্ক ম্যাট্রিক্স রয়েছে যার নির্ধারকটি শূন্য। (এটি নমুনা পারস্পরিক সম্পর্ক ম্যাট্রিক্স এবং সম্পর্কিত কোভেরিয়েন্স ম্যাট্রিক্সের তাত্ত্বিকভাবে ইতিবাচক সুনির্দিষ্ট হওয়া উচিত বলে কিছুটা অবাক করার মতো বিষয় রয়েছে)) আমার হাইপোথিসিসটি হ'ল কমপক্ষে একটি সুরক্ষা অন্যান্য সিকিওরিটির উপর নির্ভর করে dependent আর-তে এমন কোনও ফাংশন রয়েছে যা …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.