প্রশ্ন ট্যাগ «distance»

বিতরণ বা ভেরিয়েবলের মধ্যে দূরত্বের পরিমাপ, যেমন এন-স্পেসের পয়েন্টগুলির মধ্যে ইউক্লিডিয়ান দূরত্ব।

9
নীচে শীর্ষে মহালনোবিসের দূরত্বের ব্যাখ্যা?
আমি প্যাটার্ন স্বীকৃতি এবং পরিসংখ্যান অধ্যয়ন করছি এবং আমি যে বিষয়টি খোলি প্রায় প্রতিটি বইই আমি মহালানোবিস দূরত্বের ধারণার সাথে ঝাঁপিয়ে পড়েছি । বইগুলি ধরণের স্বজ্ঞাত ব্যাখ্যা দেয়, তবে এখনও সত্যিকার অর্থে যা চলছে তা বুঝতে আমার পক্ষে তেমন ভাল কিছু নেই। যদি কেউ আমাকে জিজ্ঞাসা করতেন "মহালানোবিসের দূরত্ব কী?" …

3
একটি উদাহরণ: বাইনারি ফলাফলের জন্য গ্ল্যামনেট ব্যবহার করে লাসো রিগ্রেশন
আমি লাসো রিগ্রেশন সহ যেখানে আমার আগ্রহের ফলাফলটি দ্বিধাহীন তা ব্যবহার glmnetকরে ধকল শুরু করছি । আমি নীচে একটি ছোট মক ডেটা ফ্রেম তৈরি করেছি: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

5
কুলব্যাক-লেবলার (কেএল) ডাইভারজেন্স সম্পর্কিত অন্তর্দৃষ্টি
কেএল ডাইভারজেন্সের পিছনে অন্তর্নিহিততা সম্পর্কে আমি শিখেছি যেমন কোনও মডেল বিতরণ ফাংশন তাত্ত্বিক / সত্যের বিতরণের থেকে তথ্যের থেকে কতটা পৃথক। উৎস আমি পরছি বলতে যে এই দুই ডিস্ট্রিবিউশন মধ্যে 'দূরত্ব' এর স্বজ্ঞাত বোঝার সহায়ক, কিন্তু আক্ষরিক গ্রহণ করা উচিত নয় কারণ দুটি ডিস্ট্রিবিউশন যায় PPP এবং QQQ , কেএল …

2
শ্রেণিবদ্ধ ক্লাস্টারিংয়ের জন্য সঠিক লিঙ্কেজ পদ্ধতি নির্বাচন করা
আমি গুগল বিগকুয়েরিতে রেডডিট ডেটা ডাম্প থেকে সংগ্রহ করেছি এবং প্রক্রিয়া করেছি এমন ডেটাগুলিতে শ্রেণিবদ্ধ ক্লাস্টারিং করছি । আমার প্রক্রিয়াটি নিম্নলিখিত: / আর / রাজনীতিতে সর্বশেষ 1000 পদ পান সমস্ত মন্তব্য সংগ্রহ করুন ডেটা প্রক্রিয়া করুন এবং একটি n x mডেটা ম্যাট্রিক্স গণনা করুন (এন: ব্যবহারকারী / নমুনা, এম: পোস্ট …

1
মিলের ম্যাট্রিক্সকে (ইউক্লিডিয়ান) দূরত্বের ম্যাট্রিক্সে রূপান্তর করা
র্যান্ডম ফরেস্ট অ্যালগরিদমে, ব্রেইমান (লেখক) নিম্নলিখিত হিসাবে মিলের ম্যাট্রিক্স তৈরি করেছেন: বনের প্রতিটি গাছের নীচে সমস্ত শিক্ষার উদাহরণ প্রেরণ করুন যদি দুটি উদাহরণ একই পাতার বর্ধনের সাথে সামঞ্জস্য মৌলের সাথে মেট্রিক্সে 1 দ্বারা অবতরণ করে গাছের সংখ্যা সহ ম্যাট্রিক্সকে সাধারণ করুন তিনি বলেন: কে এবং কে এবং কেসগুলির মধ্যে সান্নিধ্যগুলি …

1
দুটি গাউসিয়ার মধ্যে আর্থ মুভারের দূরত্ব (ইএমডি)
এবং মধ্যে ইএমডি (বা কোনও ধরণের উপর আবদ্ধ) এর জন্য কি কোনও বদ্ধ-সূত্র সূত্র রয়েছে ?x 2 ∼ N ( μ 2 , Σ 2 )x1∼N(μ1,Σ1)x1∼N(μ1,Σ1)x_1\sim N(\mu_1, \Sigma_1)x2∼N(μ2,Σ2)x2∼N(μ2,Σ2)x_2 \sim N(\mu_2, \Sigma_2)

1
মান্টেল পরীক্ষা অসমমিতিক ম্যাট্রিক্সে বাড়ানো যেতে পারে?
উনান নিকটস্থ তাকবিশেষ পরীক্ষা সাধারণত প্রতিসম দূরত্ব / পার্থক্য ম্যাট্রিক্স প্রয়োগ করা হয়। আমি যতদূর বুঝতে পেরেছি, পরীক্ষার একটি অনুমান হ'ল পার্থক্য নির্ধারণের জন্য ব্যবহৃত পরিমাপটি কমপক্ষে একটি আধা-মেট্রিক হতে হবে (একটি মেট্রিকের মান প্রয়োজনীয়তাগুলি পূরণ করুন তবে ত্রিভুজ বৈষম্য নয়)। প্রতিসমের অনুমানকে শিথিল করা যায় (একটি প্রাক-মেট্রিক দেওয়া)? এই …

1
পারস্পরিক সম্পর্ককে দূরত্বের মেট্রিক হিসাবে ব্যবহার করুন (শ্রেণিবিন্যাসের ক্লাস্টারিংয়ের জন্য)
আমি আমার ডেটা হায়ারার্কিকভাবে ক্লাস্টার করতে চাই, তবে ইউক্লিডিয়ান দূরত্ব ব্যবহার না করে, আমি পারস্পরিক সম্পর্ক ব্যবহার করতে চাই। এছাড়াও, যেহেতু আমার গবেষণায় -1 এবং 1 উভয় "সহ-নিয়ন্ত্রণ" নির্দেশ করে সহ-সম্পর্কিত সহগের সীমা -1 থেকে 1, সুতরাং আমি -1 এবং 1 উভয়কে ডি = 0 হিসাবে গণ্য করছি। সুতরাং আমার …

8
কে-মানে (বা তার নিকটাত্মীয়) কেবলমাত্র একটি দূরত্বের ম্যাট্রিক্স দিয়ে ক্লাস্টারিং করুন, পয়েন্ট-বাই বৈশিষ্ট্যযুক্ত ডেটা নয়
আমি আমার থাকা বস্তুগুলিতে কে-মানে ক্লাস্টারিং করতে চাই, তবে বস্তুগুলিকে স্থানের বিন্দু হিসাবে বর্ণনা করা হয় না, যেমন objects x featuresডেটাসেট দ্বারা । যাইহোক, আমি যে কোনও দুটি বস্তুর মধ্যে দূরত্ব গণনা করতে সক্ষম (এটি একটি মিলের ফাংশনের উপর ভিত্তি করে)। সুতরাং, আমি দূরত্বের ম্যাট্রিক্স নিষ্পত্তি করি objects x objects। …

3
দুটি সাধারণ বিতরণের মধ্যে পার্থক্য বিতরণ
আমার কাছে সাধারণ বিতরণের দুটি সম্ভাব্য ঘনত্বের কার্য রয়েছে: f1(x1|μ1,σ1)=1σ12π−−√e−(x−μ1)22σ21f1(x1|μ1,σ1)=1σ12πe−(x−μ1)22σ12f_1(x_1 \; | \; \mu_1, \sigma_1) = \frac{1}{\sigma_1\sqrt{2\pi} } \; e^{ -\frac{(x-\mu_1)^2}{2\sigma_1^2} } এবং f2(x2|μ2,σ2)=1σ22π−−√e−(x−μ2)22σ22f2(x2|μ2,σ2)=1σ22πe−(x−μ2)22σ22f_2(x_2 \; | \; \mu_2, \sigma_2) = \frac{1}{\sigma_2\sqrt{2\pi} } \; e^{ -\frac{(x-\mu_2)^2}{2\sigma_2^2} } আমি x1x1x_1 এবং মধ্যে বিচ্ছিন্নতার সম্ভাবনা ঘনত্ব ফাংশনটি সন্ধান করছি x2x2x_2। আমি মনে করি …

4
মিশ্রিত ডেটা ইউক্লিডিয়ান ভিত্তিক ক্লাস্টারিং অ্যালগরিদমের জন্য কেন সমস্যা?
বেশিরভাগ ধ্রুপদী ক্লাস্টারিং এবং মাত্রিকতা হ্রাস অ্যালগরিদম (হায়ারারিকিকাল ক্লাস্টারিং, মূল উপাদান বিশ্লেষণ, কে-মানে, স্ব-সংগঠিত মানচিত্র ...) বিশেষত সংখ্যাসূচক তথ্যগুলির জন্য ডিজাইন করা হয়েছে এবং তাদের ইনপুট ডেটা ইউক্যালিডিয়ান স্পেসে পয়েন্ট হিসাবে দেখা হয়। এটি অবশ্যই একটি সমস্যা, যেমনটি অনেক বাস্তব-জগতের প্রশ্নগুলিতে ডেটা যুক্ত থাকে যা মিশ্রিত হয়: উদাহরণস্বরূপ যদি আমরা …

1
একটি ভেরিয়েবলের মধ্যে বৈকল্পিক এবং জোড়াওয়ালা দূরত্বগুলির মধ্যে লিঙ্ক
দয়া করে, প্রমাণ যে যদি আমরা দুটি ভেরিয়েবল (সমান নমুনা আকারের) আছে এবং ওয়াই এবং ভ্যারিয়েন্স মধ্যে এক্স তুলনায় বেশী ওয়াই , তারপর স্কোয়ারড পার্থক্যের সমষ্টি মধ্যে ডাটা পয়েন্টের মধ্যে (অর্থাত, ইউক্লিডিয় দুরুত্ব ছক) এক্স এছাড়াও চেয়ে বেশী যে Y এর মধ্যে ।XXXYYYXXXYYYXXXYYY

9
পেয়ারওয়াই মহালানোবিস দূরত্ব
আমাকে কোভারিয়েটগুলির একটি between ম্যাট্রিক্সে প্রতিটি জোড় পর্যবেক্ষণের মধ্যে আর মধ্যে নমুনা মহালানোবিসের দূরত্ব গণনা করতে হবে । আমি একটি সমাধান কার্যকরী যে প্রয়োজন, অর্থাত্ শুধুমাত্র দূরত্বের গণনা করা হয়, এবং বিশেষ করে সি / RCpp বাস্তবায়িত / ফোরট্রান ইত্যাদি আমি অনুমান যে জনসংখ্যার সহভেদাংক ম্যাট্রিক্স, অজানা এবং নমুনা ব্যবহার …
18 r  algorithms  distance 

3
অনুশীলনে কুলব্যাক-লেবলার ডাইভারজেন্স গণনা করবেন?
আমি 2 মধ্যে অনৈক্য একটি পরিমাপ হিসাবে কেএল ডাইভারজেন্স ব্যবহার করছি এবংপি প্রশ্নp.m.f.p.m.f.p.m.f. PPPQQQ । =-∑P(Xi)ln(Q(Xi))+∑P(Xi)ln(P(Xi))DKL(P||Q)=∑i=1Nln(PiQi)PiDKL(P||Q)=∑i=1Nln⁡(PiQi)PiD_{KL}(P||Q) = \sum_{i=1}^N \ln \left( \frac{P_i}{Q_i} \right) P_i =−∑P(Xi)ln(Q(Xi))+∑P(Xi)ln(P(Xi))=−∑P(Xi)ln(Q(Xi))+∑P(Xi)ln(P(Xi))=-\sum P(X_i)ln\left(Q(X_i)\right) + \sum P(X_i)ln\left(P(X_i)\right) যদি তবে আমরা সহজেই গণনা করতে পারি যে পি ( এক্স আই ) এল এন ( কিউ ( এক্স আই ) )P(Xi)=0P(Xi)=0P(X_i)=0পি …

3
কুলব্যাক-লেবলার (কেএল) বিচরণের সর্বোচ্চ মান কী
আমি আমার পাইথন কোডে কেএল ডাইভার্জেন্স ব্যবহার করতে যাচ্ছি এবং আমি এই টিউটোরিয়ালটি পেয়েছি । এই টিউটোরিয়ালে, কেএল ডাইভারজেন্স বাস্তবায়ন করা বেশ সহজ। kl = (model * np.log(model/actual)).sum() আমি যেমন বুঝতে পারি, এর সম্ভাব্যতা বন্টন হতে হবে modelএবং actual<= 1 হওয়া উচিত। আমার প্রশ্নটি হল, কে-এর সর্বাধিক সীমাবদ্ধ / সর্বাধিক …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.