প্রশ্ন ট্যাগ «dimensionality-reduction»

সম্ভব তথ্য হিসাবে যতটা তথ্য সংরক্ষণ করার জন্য ডেটা দ্বারা বিস্তৃত পরিমাণে ভেরিয়েবল বা মাত্রাগুলি একটি অল্প সংখ্যক মাত্রায় হ্রাস করার কৌশলগুলি বোঝায়। বিশিষ্ট পদ্ধতিগুলির মধ্যে রয়েছে পিসিএ, এমডিএস, আইসোম্যাপ ইত্যাদি techniques কৌশলগুলির মূল দুটি সাবক্লাস: বৈশিষ্ট্য নিষ্কাশন এবং বৈশিষ্ট্য নির্বাচন।

3
এসভিডি এবং পিসিএর মধ্যে সম্পর্ক। কীভাবে পিসিএ করতে এসভিডি ব্যবহার করবেন?
অধ্যক্ষ উপাদান বিশ্লেষণ (পিসিএ) সাধারণত কোভারিয়েন্স ম্যাট্রিক্সের ইগেন-পচন দ্বারা ব্যাখ্যা করা হয়। তবে এটি ডাটা ম্যাট্রিক্স একক মান ভলন (এসভিডি) এর মাধ্যমেও সঞ্চালিত হতে পারে । এটা কিভাবে কাজ করে? এই দুটি পদ্ধতির মধ্যে সংযোগ কী? এসভিডি এবং পিসিএর মধ্যে সম্পর্ক কী?XX\mathbf X বা অন্য কথায়, মাত্রা হ্রাস সম্পাদন করতে …

1
কীভাবে পিসিএ বিপরীত করবেন এবং বেশ কয়েকটি মূল উপাদান থেকে মূল ভেরিয়েবল পুনর্গঠন করবেন?
প্রিন্সিপাল উপাদান বিশ্লেষণ (পিসিএ) মাত্রা হ্রাস জন্য ব্যবহার করা যেতে পারে। এই জাতীয় মাত্রা হ্রাস সম্পন্ন হওয়ার পরে, কেউ কীভাবে সংখ্যক অধ্যক্ষ উপাদান থেকে মূল ভেরিয়েবল / বৈশিষ্ট্যগুলি পুনর্গঠন করতে পারে? বিকল্পভাবে, কেউ কীভাবে ডেটা থেকে বেশ কয়েকটি মূল উপাদানগুলি সরিয়ে বা ফেলে দিতে পারে? অন্য কথায়, কিভাবে পিসিএ বিপরীত? …

11
একটি শিশুকে "মাত্রিকতার অভিশাপ" ব্যাখ্যা করুন
আমি মাত্রিকতার অভিশাপ সম্পর্কে অনেকবার শুনেছি, তবে কোনওরকমভাবে আমি এখনও ধারণাটি উপলব্ধি করতে অক্ষম, এগুলি সব কুয়াশাচ্ছন্ন। আপনি কি কোনও সন্তানের কাছে এটি ব্যাখ্যা করার মতোই কি খুব স্বজ্ঞাত উপায়ে এটি ব্যাখ্যা করতে পারেন, যাতে আমি (এবং অন্যরা যেমন আমি বিভ্রান্ত) এই বিষয়গুলি ভালোর জন্য বুঝতে পারি? সম্পাদনা করুন: এখন, …

4
পিসিএ এবং বৈকল্পিক অনুপাত ব্যাখ্যা করা হয়েছে
সাধারণভাবে, পিসিএর মতো বিশ্লেষণে ভিন্নতার ভগ্নাংশ প্রথম প্রধান উপাদান দ্বারা ব্যাখ্যা করা বলতে কী বোঝায় ? কেউ কি স্বজ্ঞাতভাবে এটি ব্যাখ্যা করতে পারেন তবে মূল উপাদান বিশ্লেষণের (পিসিএ) ক্ষেত্রে "বৈকল্পিক ব্যাখ্যা" কী বোঝায় তার একটি সঠিক গাণিতিক সংজ্ঞা দিতে পারেন?এক্সxx সাধারণ লিনিয়ার রিগ্রেশন জন্য, সেরা ফিট রেখার আর-স্কোয়ারটি সর্বদা বর্ণিত …

2
জেডসিএ সাদা করা এবং পিসিএ সাদা করার মধ্যে পার্থক্য কী?
আমি জেডসিএ সাদা এবং স্বাভাবিক সাদা করার বিষয়ে বিভ্রান্ত হয়ে পড়েছি (যা পিসিএ ইগেনভ্যালুগুলির বর্গমূলের দ্বারা মূল উপাদানগুলি ভাগ করে নেওয়া হয়)। যতদুর আমি জানি, xZCAwhite=UxPCAwhite,xZCAwhite=UxPCAwhite,\mathbf x_\mathrm{ZCAwhite} = \mathbf U \mathbf x_\mathrm{PCAwhite}, যেখানে PCA eigenvectors।UU\mathbf U জেডসিএ হোয়াইটিংয়ের ব্যবহারগুলি কী? সাধারণ সাদা এবং জেডসিএ হোয়াইটিংয়ের মধ্যে পার্থক্য কী?

6
বহু স্তরের সাথে শ্রেণিবদ্ধ ভেরিয়েবলগুলি ভেঙে যাওয়ার মূলনীতি?
কোনও পরিসংখ্যানের মডেলটিতে ইনপুট (ভবিষ্যদ্বাণীকারী) হিসাবে তাদের ব্যবহার করার উদ্দেশ্যে, কয়েকটি বিভাগকে কয়েকটি ভাঙ্গার জন্য (বা পুলিং) কী কী কৌশলগুলি উপলভ্য? কলেজ ছাত্র মেজর (একটি স্নাতক ছাত্র দ্বারা নির্বাচিত শৃঙ্খলা) মত একটি পরিবর্তনশীল বিবেচনা করুন । এটি অযৌক্তিক এবং শ্রেণিবদ্ধ, তবে এটির সম্ভাব্য কয়েক ডজন স্বতন্ত্র স্তর থাকতে পারে। ধরা …

3
পিসিএ বুলিয়ান (বাইনারি) ডেটা ধরণের জন্য কাজ করবে?
আমি উচ্চতর অর্ডার সিস্টেমের মাত্রিকতা হ্রাস করতে এবং অগ্রাধিকার 2 মাত্রিক বা 1 মাত্রিক ক্ষেত্রের বেশিরভাগ সমবায়কে ক্যাপচার করতে চাই। আমি বুঝতে পারি এটি মূল উপাদান বিশ্লেষণের মাধ্যমে করা যেতে পারে এবং আমি অনেক পরিস্থিতিতে পিসিএ ব্যবহার করেছি। তবে, আমি এটি কখনই বুলিয়ান ডেটা ধরণের সাথে ব্যবহার করি নি, এবং …

2
টি-এসএনই কখন বিভ্রান্ত করছে?
লেখকের একজনের উদ্ধৃতি: টি-ডিস্ট্রিবিউটড স্টোকাস্টিক নেবার এম্বেডিং (টি-এসএনই) মাত্রা হ্রাসের জন্য একটি ( পুরষ্কার-বিজয়ী ) কৌশল যা উচ্চ মাত্রিক ডেটাসেটগুলির ভিজ্যুয়ালাইজেশনের জন্য বিশেষভাবে উপযুক্ত। সুতরাং এটি বেশ দুর্দান্ত লাগে, কিন্তু এটি লেখক কথা বলছেন। লেখকের আর একটি উক্তি (পুনরায়: পূর্বোক্ত প্রতিযোগিতা): আপনি এই প্রতিযোগিতা থেকে কি দূরে সরিয়ে নিয়েছেন? আপনি …

3
টি-এসএনই কেন ক্লাস্টারিং বা শ্রেণিবিন্যাসের জন্য মাত্রিকতা হ্রাস কৌশল হিসাবে ব্যবহৃত হয় না?
সাম্প্রতিক একটি কার্যভারে, আমাদের এমএনআইএসটি সংখ্যাগুলিতে পিসিএ ব্যবহার করতে মাত্রাটি হ্রাস করতে x৪ (৮ x 8 চিত্র) থেকে ২ এ নামিয়ে আনতে বলা হয়েছিল। তারপরে আমাদের গাউসীয় মিশ্রণ মডেল ব্যবহার করে অঙ্কগুলি ক্লাস্টার করতে হয়েছিল। কেবলমাত্র 2 প্রধান উপাদান ব্যবহার করে পিসিএ পৃথক ক্লাস্টার দেয় না এবং ফলস্বরূপ মডেল দরকারী …

1
ফ্যাক্টর অ্যানালাইসিস / পিসিএতে ঘূর্ণন করার পিছনে স্বজ্ঞাত কারণ এবং কীভাবে উপযুক্ত ঘূর্ণনটি নির্বাচন করবেন?
আমার প্রশ্নগুলো ফ্যাক্টর অ্যানালাইসিসের (বা পিসিএর উপাদানগুলি) উপাদানগুলির ঘূর্ণন করার পিছনে স্বজ্ঞাত কারণ কী? আমার বোধগম্যতা হল, শীর্ষস্থানীয় উপাদানগুলিতে (বা উপাদানগুলি) যদি ভেরিয়েবলগুলি প্রায় সমানভাবে লোড হয় তবে অবশ্যই উপাদানগুলির পার্থক্য করা শক্ত। সুতরাং এক্ষেত্রে উপাদানগুলির আরও ভাল পার্থক্য পেতে রোটেশনটি ব্যবহার করা যেতে পারে। এটা কি সঠিক? ঘূর্ণন করার …

1
কীভাবে পিসিএ একটি কে-ক্লাস্টারিং বিশ্লেষণে সহায়তা করবে?
পটভূমি : আমি আবাসিক ইউনিট ঘনত্ব, জনসংখ্যার ঘনত্ব, সবুজ স্থানের অঞ্চল, আবাসনের মূল্য, স্কুল / স্বাস্থ্যকেন্দ্র / ডে কেয়ার সেন্টার ইত্যাদিসহ একটি শহরের আবাসিক অঞ্চলগুলিকে তাদের সামাজিক-অর্থনৈতিক বৈশিষ্ট্যের ভিত্তিতে গোষ্ঠীতে শ্রেণিবদ্ধ করতে চাই etc. আমি বুঝতে চাই আবাসিক অঞ্চলগুলিকে কয়টি পৃথক দলে ভাগ করা যায় এবং তাদের অনন্য বৈশিষ্ট্যগুলি কী। …

1
একটি বিশাল, স্পার্স ম্যাট্রিক্সের উপর মাত্রা হ্রাস (এসভিডি বা পিসিএ)
/ সম্পাদনা: আরও অনুসরণ করুন এখন আপনি irlba :: prcomp_irlba ব্যবহার করতে পারেন / সম্পাদনা: আমার নিজের পোস্টে অনুসরণ করা। irlbaএখন "কেন্দ্র" এবং "স্কেল" আর্গুমেন্ট রয়েছে, যা আপনাকে নীতি উপাদানগুলি গণনা করতে এটি ব্যবহার করতে দেয়, যেমন: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v আমার কাছে একটি Matrixমেশিন …

5
মেশিন লার্নিংয়ের শ্রেণিবদ্ধ / নেস্টেড ডেটা কীভাবে মোকাবেলা করবেন
আমি আমার সমস্যাটি একটি উদাহরণ দিয়ে ব্যাখ্যা করব। ধরুন আপনি কোনও ব্যক্তির আয়ের ভবিষ্যদ্বাণী করতে চান এমন কয়েকটি বৈশিষ্ট্য দেওয়া হয়েছে: {বয়স, লিঙ্গ, দেশ, অঞ্চল, শহর} আপনার মতো প্রশিক্ষণ ডেটাসেট রয়েছে train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

4
আরে মাত্রিকতা হ্রাস কিভাবে করবেন
আমার একটি ম্যাট্রিক্স রয়েছে যেখানে একটি (i, j) আমাকে জানায় আমি ব্যক্তিগতভাবে পৃষ্ঠা j কতবার দেখেছি। 27 কে ব্যক্তি এবং 95 কে পৃষ্ঠাগুলি রয়েছে। পৃষ্ঠাগুলির জায়গাগুলিতে আমি মুষ্টিমেয় "মাত্রা" বা "দিকগুলি" রাখতে চাই যা প্রায়শই একসাথে দেখা পৃষ্ঠাগুলির সেটের সাথে মিলে যায়। আমার চূড়ান্ত লক্ষ্যটি হল তখন আমি ব্যক্তিগতভাবে যে …

2
পাইথনের বিজ্ঞানী-শিখতে এলডিএ কেন সঠিকভাবে কাজ করছে না এবং কীভাবে এটি এসভিডি এর মাধ্যমে এলডিএকে গণনা করে?
আমি scikit-learnমাত্রা হ্রাসের জন্য মেশিন লার্নিং লাইব্রেরি (পাইথন) থেকে লিনিয়ার ডিসক্রিমিনেন্ট অ্যানালাইসিস (এলডিএ) ব্যবহার করছিলাম এবং ফলাফলগুলি সম্পর্কে কিছুটা কৌতূহল ছিলাম। আমি এখন অবাক হয়ে যাচ্ছি যে এলডিএ scikit-learnকী করছে যাতে ফলাফলগুলি দেখতে আলাদা হয়, যেমন একটি ম্যানুয়াল পদ্ধতি বা একটি এলডিএ আর থেকে করা হয়েছিল। এখানে কেউ আমাকে কিছু …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.