প্রশ্ন ট্যাগ «kullback-leibler»

সম্ভাব্যতা বন্টনের মধ্যে দূরত্বের এক অসামান্য মাপ (বা ভিন্নতা)। এটি বিকল্প অনুমানের অধীনে লগ সম্ভাবনা অনুপাতের প্রত্যাশিত মান হিসাবে ব্যাখ্যা করা যেতে পারে।

3
অনুশীলনে কুলব্যাক-লেবলার ডাইভারজেন্স গণনা করবেন?
আমি 2 মধ্যে অনৈক্য একটি পরিমাপ হিসাবে কেএল ডাইভারজেন্স ব্যবহার করছি এবংপি প্রশ্নp.m.f.p.m.f.p.m.f. PPPQQQ । =-∑P(Xi)ln(Q(Xi))+∑P(Xi)ln(P(Xi))DKL(P||Q)=∑i=1Nln(PiQi)PiDKL(P||Q)=∑i=1Nln⁡(PiQi)PiD_{KL}(P||Q) = \sum_{i=1}^N \ln \left( \frac{P_i}{Q_i} \right) P_i =−∑P(Xi)ln(Q(Xi))+∑P(Xi)ln(P(Xi))=−∑P(Xi)ln(Q(Xi))+∑P(Xi)ln(P(Xi))=-\sum P(X_i)ln\left(Q(X_i)\right) + \sum P(X_i)ln\left(P(X_i)\right) যদি তবে আমরা সহজেই গণনা করতে পারি যে পি ( এক্স আই ) এল এন ( কিউ ( এক্স আই ) )P(Xi)=0P(Xi)=0P(X_i)=0পি …

3
কুলব্যাক-লেবলার (কেএল) বিচরণের সর্বোচ্চ মান কী
আমি আমার পাইথন কোডে কেএল ডাইভার্জেন্স ব্যবহার করতে যাচ্ছি এবং আমি এই টিউটোরিয়ালটি পেয়েছি । এই টিউটোরিয়ালে, কেএল ডাইভারজেন্স বাস্তবায়ন করা বেশ সহজ। kl = (model * np.log(model/actual)).sum() আমি যেমন বুঝতে পারি, এর সম্ভাব্যতা বন্টন হতে হবে modelএবং actual<= 1 হওয়া উচিত। আমার প্রশ্নটি হল, কে-এর সর্বাধিক সীমাবদ্ধ / সর্বাধিক …

4
কেএল বিচ্যুতি সম্পর্কে প্রশ্ন?
আমি দুটি বিতরণকে কেএল ডাইভারজেন্সের সাথে তুলনা করছি যা আমাকে একটি মানহীন নম্বর প্রদান করে যা আমি এই পরিমাপটি সম্পর্কে যা পড়েছি তার অনুসারে, একটি অনুমানকে অন্যটিতে রূপান্তরিত করার জন্য প্রয়োজনীয় তথ্যের পরিমাণ। আমার দুটি প্রশ্ন আছে: ক) কেএল ডাইভার্জেন্সকে মাপানোর কোনও উপায় আছে যাতে এটির আরও অর্থবহ ব্যাখ্যা থাকে, …

2
জেনসেন শ্যানন ডাইভারজেন্স বনাম কুলব্যাক-লেবলার ডাইভারজেন্স?
আমি জানি যে কেএল ডাইভারজেনটি প্রতিসম নয় এবং এটিকে মেট্রিক হিসাবে কঠোরভাবে বিবেচনা করা যায় না। যদি তা হয় তবে জেএস ডাইভারজেন কোনও মেট্রিকের জন্য প্রয়োজনীয় বৈশিষ্ট্যগুলি সন্তুষ্ট করলে কেন এটি ব্যবহৃত হয়? কিছু পরিস্থিতিতে আছে যেখানে কেএল ডাইভারজেন্স ব্যবহার করা যেতে পারে তবে জেএস ডাইভারজেন বা তদ্বিপরীত নয়?

1
বিশেষ সম্ভাবনা বিতরণ
যদি p(x)p(x)p(x) একটি সম্ভাব্যতা উপর নন-জিরো মান বন্টন হয় [0,+∞)[0,+∞)[0,+\infty) এর জন্য কি ধরনের (গুলি) p(x)p(x)p(x) সেখানে বিদ্যমান একটি ধ্রুবক c>0c>0c\gt 0 যেমন যে ∫∞0p(x)logp(x)(1+ϵ)p(x(1+ϵ))dx≤cϵ2∫0∞p(x)log⁡p(x)(1+ϵ)p(x(1+ϵ))dx≤cϵ2\int_0^{\infty}p(x)\log{\frac{ p(x)}{(1+\epsilon)p({x}(1+\epsilon))}}dx \leq c \epsilon^2সমস্ত0<ϵ<10<ϵ<10\lt\epsilon\lt 1? উপরের অসমতাটি আসলে ডিস্ট্রিবিউশন p(x)p(x)p(x) এবং এর সংকোচিত সংস্করণ মধ্যে একটি কুলব্যাক-লেবেলার বিচ্যুতি (1+ϵ)p(x(1+ϵ))(1+ϵ)p(x(1+ϵ)){(1+\epsilon)}p({x}{(1+\epsilon)})। আমি জানতে পেরেছি যে এই বৈষম্যটি …

3
বিযুক্ত এবং অবিচ্ছিন্ন বিতরণের মধ্যে কি কেএল ডাইভারজেন্স প্রয়োগ করা সম্ভব?
আমি গণিতজ্ঞ নই। আমি কেএল ডাইভারজেন্স সম্পর্কে ইন্টারনেট অনুসন্ধান করেছি। আমি যেটা শিখেছি তা হ'ল কেএল ডাইভারজেন্স হ'ল তথ্য হারিয়ে যায় যখন আমরা ইনপুট বিতরণের ক্ষেত্রে কোনও মডেলের আনুমানিক বিতরণ করি। এগুলি আমি যে কোনও দুটি ধারাবাহিক বা পৃথক বিতরণের মধ্যে দেখেছি। আমরা কি এটি ধারাবাহিক এবং বিযুক্ত বা তদ্বিপরীত …

1
সম্ভাব্যতার ব্যবস্থার মধ্যে রেডন-নিকোডিয়াম ডেরাইভেটিভের ব্যাখ্যা?
আমি কিছু বিন্দুতে দেখেছি অন্য সম্মান সঙ্গে এক সম্ভাব্যতা পরিমাপ রাডন-Nikodym ব্যুৎপন্ন ব্যবহার, এর মধ্যে উল্লেখযোগ্য হল Kullback-Leibler বিকিরণ, যেখানে এটি কিছু অবাধ পরামিতি জন্য একটি মডেল সম্ভাবনা পরিমাপ ব্যুৎপন্ন হয় সঙ্গে আসল প্যারামিটার সম্মান θ 0 :θθ\thetaθ0θ0\theta_0 ঘপিθঘপিθ0dPθdPθ0\frac {dP_\theta}{dP_{\theta_0}} কোথায় এই datapoints স্থান উভয়েই সম্ভাব্যতা পরিমাপ করে একটি প্যারামিটার …

1
আর / এমজিসিভি: টি () এবং টিআই () সেন্সর পণ্যগুলি কেন বিভিন্ন উপরিভাগ তৈরি করে?
mgcvপ্যাকেজের Rঝুলানো টেন্সর পণ্যের পারস্পরিক ক্রিয়ার জন্য দুটি ফাংশন আছে: te()এবং ti()। আমি উভয়ের মধ্যে শ্রমের মৌলিক বিভাজন বুঝতে পারি (একটি অ-রৈখিক ইন্টারঅ্যাকশন বনাম বনাম। এই ইন্টারঅ্যাকশনটিকে প্রধান প্রভাব এবং একটি মিথস্ক্রিয়াতে ডেকপোজ করে)। আমি যা বুঝতে পারি না তা হ'ল কেন te(x1, x2)এবং ti(x1) + ti(x2) + ti(x1, x2)(কিছুটা) …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

3
গুচ্ছ সমাধানগুলি মূল্যায়নের জন্য দুটি গাউসিয়ান মিশ্রণের মধ্যে দূরত্ব
আমি বিভিন্ন ক্লাস্টারিং পদ্ধতির তুলনা করার জন্য একটি দ্রুত সিমুলেশন চালাচ্ছি এবং বর্তমানে ক্লাস্টার সমাধানগুলি মূল্যায়নের চেষ্টা করে একটি ছিটকেছি hit আমি বিভিন্ন বৈধতা মেট্রিকগুলি জানি (অনেকগুলি ক্লাস্টার.স্ট্যাটসে ( আর-তে পাওয়া যায় ) ) তবে আমি অনুমান করি যে ক্লাস্টারের আনুমানিক সংখ্যা প্রকৃত সংখ্যার ক্লাস্টারের সংখ্যার সমান হলে সেগুলি সবচেয়ে …

2
দুটি নমুনার জন্য কুলব্যাক-লেবেলার বিচ্যুতি
আমি দুটি নমুনার জন্য কুলব্যাক-লেবলার ডাইভারজেনের একটি সংখ্যার হিসাবটি প্রয়োগ করার চেষ্টা করেছি। প্রয়োগটি ডিবাগ করার জন্য দুটি সাধারণ বিতরণ থেকে নমুনাগুলি আঁকুন এবং ।এন ( 1 , 2 )এন( 0 , 1 )N(0,1)\mathcal N (0,1)এন( 1 , 2 )N(1,2)\mathcal N (1,2) একটি সাধারণ অনুমানের জন্য আমি দুটি হিস্টোগ্রাম উত্পন্ন …

2
কীভাবে কুলব্যাক-লেবলার ডাইভারজেন্স / দূরত্ব গণনা করবেন?
আমার কাছে এক্স, ওয়াই এবং জেডের তিনটি ডেটা সেট রয়েছে data উদাহরণ স্বরূপ: ডেটা সেট এক্স: E1: 4, E2: 0, E3: 10, E4: 5, E5: 0, E6: 0 এবং আরও অনেক কিছু .. ডেটা সেট Y: E1: 2, E2: 3, E3: 7, E4: 6, E5: 0, E6: 0 এবং আরও …

2
হাইপোথিসিস টেস্টিং এবং মোট প্রকরণের দূরত্ব বনাম কুলব্যাক-লেবলার ডাইভারজেন্স
আমার গবেষণায় আমি নিম্নলিখিত সাধারণ সমস্যাটি নিয়ে চলেছি: একই ডোমেনের উপরে আমার কাছে দুটি এবং কিউ এবং এই বিতরণগুলি থেকে একটি বৃহত (তবে সসীম) সংখ্যার নমুনা রয়েছে। নমুনাগুলি এই দুটি বিতরণের যে কোনও একটি থেকে স্বতন্ত্র এবং অভিন্নভাবে বিতরণ করা হয় (যদিও বিতরণ সম্পর্কিত হতে পারে: উদাহরণস্বরূপ, প্রশ্ন পি এবং …

2
একটি ইউনিট গওসিয়ান সঙ্গে কেএল ক্ষতি
আমি একটি ভিএই বাস্তবায়ন করছি এবং আমি সরলিকৃত অবিবাহিত গাউসিয়ান কেএল ডাইভারজেন্সের দুটি পৃথক বাস্তবায়ন লক্ষ্য করেছি। অনুযায়ী মূল বিকিরণ এখানে হয় যদি আমরা ধরে নিই যে আমাদের পূর্ববর্তীটি একক গাউসিয়ান অর্থাৎ ie এবং হয় তবে এটি এবং আমার বিভ্রান্তি এখানেই রয়েছে। যদিও উপরের প্রয়োগের সাথে আমি কয়েকটি অস্পষ্ট গিথুব …

3
মন্টি কার্লো দিয়ে কুলব্যাক লেবেলার (কেএল) বিভাজনের অনুমান করুন
আমি দুটি অবিচ্ছিন্ন বিতরণ চ এবং জি এর মধ্যে কেএল বৈচিত্রের অনুমান করতে চাই। তবে, আমি f বা g এর জন্য ঘনত্বটি লিখতে পারি না can't আমি কিছু পদ্ধতি (উদাহরণস্বরূপ, মার্কভ চেইন মন্টি কার্লো) এর মাধ্যমে এফ এবং জি উভয় থেকে নমুনা নিতে পারি। কেএল থেকে এফ থেকে জি পর্যন্ত …

1
আর লিনিয়ার রিগ্রেশন শ্রেণিবদ্ধ পরিবর্তনশীল "লুকানো" মান
এটি কেবলমাত্র একটি উদাহরণ যা আমি বেশ কয়েকবার এসেছি, সুতরাং আমার কোনও নমুনা ডেটা নেই। আরে লিনিয়ার রিগ্রেশন মডেল চালাচ্ছেন: a.lm = lm(Y ~ x1 + x2) x1একটি অবিচ্ছিন্ন পরিবর্তনশীল। x2শ্রেণীবদ্ধ এবং এর তিনটি মান রয়েছে যেমন "নিম্ন", "মাঝারি" এবং "উচ্চ"। তবে আর দ্বারা প্রদত্ত আউটপুটটি এরকম কিছু হবে: summary(a.lm) …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.