প্রশ্ন ট্যাগ «svd»

সিঙ্গুলার মান পচানি (SVD) একটি ম্যাট্রিক্সের দেওয়া হয় যেখানে এবং লম্ব ম্যাট্রিক্স এবং হয় হ'ল একটি তির্যক ম্যাট্রিক্স। AA=USVUVS

3
এসভিডি এবং পিসিএর মধ্যে সম্পর্ক। কীভাবে পিসিএ করতে এসভিডি ব্যবহার করবেন?
অধ্যক্ষ উপাদান বিশ্লেষণ (পিসিএ) সাধারণত কোভারিয়েন্স ম্যাট্রিক্সের ইগেন-পচন দ্বারা ব্যাখ্যা করা হয়। তবে এটি ডাটা ম্যাট্রিক্স একক মান ভলন (এসভিডি) এর মাধ্যমেও সঞ্চালিত হতে পারে । এটা কিভাবে কাজ করে? এই দুটি পদ্ধতির মধ্যে সংযোগ কী? এসভিডি এবং পিসিএর মধ্যে সম্পর্ক কী?XX\mathbf X বা অন্য কথায়, মাত্রা হ্রাস সম্পাদন করতে …

1
কীভাবে পিসিএ বিপরীত করবেন এবং বেশ কয়েকটি মূল উপাদান থেকে মূল ভেরিয়েবল পুনর্গঠন করবেন?
প্রিন্সিপাল উপাদান বিশ্লেষণ (পিসিএ) মাত্রা হ্রাস জন্য ব্যবহার করা যেতে পারে। এই জাতীয় মাত্রা হ্রাস সম্পন্ন হওয়ার পরে, কেউ কীভাবে সংখ্যক অধ্যক্ষ উপাদান থেকে মূল ভেরিয়েবল / বৈশিষ্ট্যগুলি পুনর্গঠন করতে পারে? বিকল্পভাবে, কেউ কীভাবে ডেটা থেকে বেশ কয়েকটি মূল উপাদানগুলি সরিয়ে বা ফেলে দিতে পারে? অন্য কথায়, কিভাবে পিসিএ বিপরীত? …

3
একটি উদাহরণ: বাইনারি ফলাফলের জন্য গ্ল্যামনেট ব্যবহার করে লাসো রিগ্রেশন
আমি লাসো রিগ্রেশন সহ যেখানে আমার আগ্রহের ফলাফলটি দ্বিধাহীন তা ব্যবহার glmnetকরে ধকল শুরু করছি । আমি নীচে একটি ছোট মক ডেটা ফ্রেম তৈরি করেছি: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
এসভিডির পিছনে অন্তর্দৃষ্টি কী?
আমি একবচনীয় মান পচন (এসভিডি) সম্পর্কে পড়েছি। প্রায় সকল পাঠ্যপুস্তকেই উল্লেখ করা হয় যে এটি প্রদত্ত স্পেসিফিকেশন সহ ম্যাট্রিক্সকে তিনটি ম্যাট্রিকগুলিতে গুণন করে। কিন্তু এই জাতীয় আকারে ম্যাট্রিক্স বিভক্ত করার পিছনে অন্তর্দৃষ্টি কী? ডাইমেনিয়ালিটি হ্রাসের জন্য পিসিএ এবং অন্যান্য অ্যালগরিদমগুলি এই অর্থে স্বজ্ঞাত যে অ্যালগরিদমের দুর্দান্ত ভিজ্যুয়ালাইজেশন সম্পত্তি রয়েছে তবে …

1
বিপ্লটের সাথে তাদের সম্পর্কের ক্ষেত্রে পিসিএ এবং চিঠিপত্র বিশ্লেষণ
বিপ্লট প্রায়শই মূল উপাদান বিশ্লেষণ (এবং সম্পর্কিত কৌশলগুলির) ফলাফল প্রদর্শন করতে ব্যবহৃত হয় । এটি একই সাথে উপাদান লোডিং এবং উপাদান স্কোরগুলি দেখায় এমন একটি দ্বৈত বা ওভারলে স্ক্রেটারপ্লট । আমাকে আজমোইবা দ্বারা জানানো হয়েছিল যে তিনি আমার মন্তব্য থেকে এমন একটি প্রশ্নের উত্তর দিয়েছেন যা বাইপলট স্থানাঙ্কগুলি কীভাবে তৈরি …

2
আংশিক সর্বনিম্ন স্কোয়ার রিগ্রেশন পিছনে থিওরি
যে কেউ এসভিডি এবং পিসিএ বোঝে এমন ব্যক্তির জন্য আংশিক ন্যূনতম স্কোয়ার রিগ্রেশন (অনলাইনে উপলব্ধ) এর পিছনে তত্ত্বটির ভাল প্রদর্শনের প্রস্তাব দিতে পারে? আমি অনলাইনে অনেক উত্সের দিকে নজর রেখেছি এবং এমন কোনও কিছুই খুঁজে পাইনি যার মধ্যে কঠোরতা এবং অ্যাক্সেসযোগ্যতার সঠিক সংমিশ্রণ ছিল। আমি স্ট্যাটিস্টিকাল লার্নিংয়ের এলিমেন্টগুলিতে নজর রেখেছি …

1
একটি বিশাল, স্পার্স ম্যাট্রিক্সের উপর মাত্রা হ্রাস (এসভিডি বা পিসিএ)
/ সম্পাদনা: আরও অনুসরণ করুন এখন আপনি irlba :: prcomp_irlba ব্যবহার করতে পারেন / সম্পাদনা: আমার নিজের পোস্টে অনুসরণ করা। irlbaএখন "কেন্দ্র" এবং "স্কেল" আর্গুমেন্ট রয়েছে, যা আপনাকে নীতি উপাদানগুলি গণনা করতে এটি ব্যবহার করতে দেয়, যেমন: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v আমার কাছে একটি Matrixমেশিন …

1
কেন কেন্দ্রিং পিসিএ (এসভিডি এবং ইগেন পচানোর জন্য) মধ্যে পার্থক্য আনতে পারে?
আপনার ডেটা পিসিএর জন্য কেন্দ্রীভূত করে (বা ডি-অর্থ)? আমি শুনেছি এটি গণিতকে সহজ করে তোলে বা এটি প্রথম পিসিকে ভেরিয়েবলগুলির মাধ্যম দ্বারা প্রভাবিত হতে বাধা দেয় তবে আমার মনে হয় আমি এখনও দৃ feel়ভাবে ধারণাটি উপলব্ধি করতে সক্ষম হইনি। উদাহরণস্বরূপ, শীর্ষস্থানীয় উত্তর এখানে ডেটা কেন্দ্রীকরণ কীভাবে রিগ্রেশন এবং পিসিএর বিরতি …
30 r  pca  svd  eigenvalues  centering 

5
আমি কীভাবে সহযোগী ফিল্টারিংয়ে এসভিডি ব্যবহার করব?
সহযোগী ফিল্টারিংয়ে কীভাবে এসভিডি ব্যবহৃত হয় তা নিয়ে আমি কিছুটা বিভ্রান্ত হয়ে পড়েছি। ধরুন আমার একটি সামাজিক গ্রাফ রয়েছে এবং আমি প্রান্তগুলি থেকে একটি সংলগ্ন ম্যাট্রিক্স তৈরি করি, তারপরে একটি এসভিডি নিন (আসুন নিয়মিতকরণ, শিখার হার, স্পারসিটি অপ্টিমাইজেশন ইত্যাদি সম্পর্কে ভুলে যাই), কীভাবে আমি আমার সুপারিশগুলি উন্নত করতে এই এসভিডি …

1
কোলেলেটেড ম্যাট্রিক্সের এসভিডি অ্যাডিটিভ হওয়া উচিত তবে এটি উপস্থিত হবে না
আমি কেবল নিচের কাগজটিতে করা দাবির প্রতিলিপি দেওয়ার চেষ্টা করছি, জিন এক্সপ্রেশন ডেটা থেকে সঠিক সম্পর্কযুক্ত দুদিক খুঁজে পাওয়া , যা হ'ল: প্রস্তাব 4. যদি । তারপর আমাদের আছে:XIJ=RICTJXIJ=RICJTX_{IJ}=R_{I}C^{T}_{J} আমি। যদি সংযোজনীয় মডেল সহ একটি নিখুঁত দ্বিখণ্ডক হয়, তবে এক্স আই জে কলামগুলির সাথে সম্পর্কযুক্ত একটি নিখুঁত দ্বিখণ্ডক; আ। যদি …

4
অ্যান্ড্রু এনজি কেন পিসিএ করার জন্য এসভিডি এবং কোভারিয়েন্স ম্যাট্রিক্সের ইআইজি নয়?
আমি অ্যান্ড্রু এনজির কোরাসেরা কোর্স এবং অন্যান্য উপকরণ থেকে পিসিএ অধ্যয়ন করছি। স্ট্যানফোর্ড এনএলপি কোর্সে CS224n এর প্রথম অ্যাসাইনমেন্ট এবং অ্যান্ড্রু এনগের বক্তৃতার ভিডিওতে তারা কোভরিয়েন্স ম্যাট্রিক্সের ইগেনভেেক্টর পচানোর পরিবর্তে একক মানের মূল্য পচন করে এবং এনজিও বলেছে যে এসভিডি ইজেনডিকোপজিশনের চেয়ে সংখ্যাগতভাবে আরও স্থিতিশীল। আমার বোঝার থেকে, পিসিএ আমরা …

2
পাইথনের বিজ্ঞানী-শিখতে এলডিএ কেন সঠিকভাবে কাজ করছে না এবং কীভাবে এটি এসভিডি এর মাধ্যমে এলডিএকে গণনা করে?
আমি scikit-learnমাত্রা হ্রাসের জন্য মেশিন লার্নিং লাইব্রেরি (পাইথন) থেকে লিনিয়ার ডিসক্রিমিনেন্ট অ্যানালাইসিস (এলডিএ) ব্যবহার করছিলাম এবং ফলাফলগুলি সম্পর্কে কিছুটা কৌতূহল ছিলাম। আমি এখন অবাক হয়ে যাচ্ছি যে এলডিএ scikit-learnকী করছে যাতে ফলাফলগুলি দেখতে আলাদা হয়, যেমন একটি ম্যানুয়াল পদ্ধতি বা একটি এলডিএ আর থেকে করা হয়েছিল। এখানে কেউ আমাকে কিছু …

1
পিসিএর সাথে প্রাপ্ত নিম্ন-র‌্যাঙ্কের আনুমানিক ম্যাট্রিক্স দ্বারা পুনর্গঠনের ত্রুটির কোন আদর্শটি হ্রাস করা যায়?
ম্যাট্রিক্স একটি পিসিএ (অথবা SVD) পড়তা দেওয়া সঙ্গে একটি ম্যাট্রিক্স , আমরা জানি যে শ্রেষ্ঠ কম-সারির পড়তা হয় ।এক্সXXXএক্স এক্সX^X^\hat XX^X^\hat XXXX এই অনুযায়ী হয় প্ররোচক আদর্শ∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 ∥ ⋅ ∥ এফ (অর্থাত বৃহত্তম eigenvalue আদর্শ) অথবা অনুযায়ী Frobenius করার আদর্শ?∥⋅∥F∥⋅∥F\parallel \cdot \parallel_F

2
একটি বিশাল স্পার্স ম্যাট্রিক্সের এসভিডি কীভাবে গণনা করবেন?
খুব বড় ধনাত্মক ম্যাট্রিক্স (65M x 3.4M) এর একক মান ভলন (এসভিডি) গণনা করার সর্বোত্তম উপায় কী যেখানে ডেটা অত্যন্ত বিরল? ম্যাট্রিক্সের 0.1% এর চেয়ে কম শূন্য নয়। আমার এমন একটি উপায় দরকার যা: মেমরির সাথে মাপসই করা হবে (আমি জানি যে অনলাইন পদ্ধতি বিদ্যমান) একটি যুক্তিসঙ্গত সময়ে গণনা করা …
26 svd  numerics 

7
ম্যাট্রিক্সের কলামগুলির মধ্যে রৈখিক নির্ভরতার জন্য পরীক্ষা করা
আমার সুরক্ষা ফেরতের একটি পারস্পরিক সম্পর্ক ম্যাট্রিক্স রয়েছে যার নির্ধারকটি শূন্য। (এটি নমুনা পারস্পরিক সম্পর্ক ম্যাট্রিক্স এবং সম্পর্কিত কোভেরিয়েন্স ম্যাট্রিক্সের তাত্ত্বিকভাবে ইতিবাচক সুনির্দিষ্ট হওয়া উচিত বলে কিছুটা অবাক করার মতো বিষয় রয়েছে)) আমার হাইপোথিসিসটি হ'ল কমপক্ষে একটি সুরক্ষা অন্যান্য সিকিওরিটির উপর নির্ভর করে dependent আর-তে এমন কোনও ফাংশন রয়েছে যা …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.