প্রশ্ন ট্যাগ «likelihood»

একটি এলোমেলো পরিবর্তনশীল যা একটি প্যারামিটারাইজড ডিস্ট্রিবিউশন এফ (এক্স; θ) থেকে উত্পন্ন হয় , সম্ভাবনাটিকে θ: \ পাঠ্য {এল} (θ) = \ পাঠ্য {পি} (θ) এর ফাংশন হিসাবে পর্যবেক্ষণ করা তথ্যের সম্ভাবনা হিসাবে সংজ্ঞায়িত করা হয় ; x = x)XF(X;θ)θ:L(θ)=P(θ;X=x)

2
স্ট্যান্ডার্ড ত্রুটি অনুমানের জন্য ব্যবহৃত প্রোফাইল সম্ভাবনার হেসিয়ান
এই প্রশ্নটি এই দ্বারা উত্সাহিত । আমি দুটি উত্স সন্ধান করেছি এবং এটি আমি খুঁজে পেয়েছি। এ। ভ্যান ডের ভার্ট, অ্যাসিম্পোটোটিক স্ট্যাটিস্টিকস: স্পষ্টভাবে কোনও প্রোফাইলের গণনা করা খুব কমই সম্ভব, তবে এর সংখ্যাগত মূল্যায়ন প্রায়শই সম্ভব হয় as তারপরে প্রোফাইল সম্ভাবনা সম্ভাবনার কার্যটির মাত্রা হ্রাস করতে পারে। প্রোফাইল সম্ভাবনা ফাংশন …

3
সম্ভাবনা বনাম বৈশিয়ান বিশ্লেষণের শর্তাধীন বিতরণ
আমরা বায়েসের উপপাদ্যটি লিখতে পারি p ( θ | x ) = চ( এক্স| θ)পি(θ)∫θচ( এক্স| θ)পি(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} যেখানে উত্তরোত্তর, শর্তযুক্ত বিতরণ, এবং পূর্ববর্তী হয়।f ( X | θ ) p ( θ )পি ( θ | এক্স )p(θ|x)p(\theta|x)চ( এক্স| θ)f(X|θ)f(X|\theta)পি ( θ )p(θ)p(\theta) অথবা p ( θ …

2
লজিস্টিক রিগ্রেশন এবং সম্ভাবনা বোঝা
লজিস্টিক রিগ্রেশনটির প্যারামিটারের অনুমান / প্রশিক্ষণটি কীভাবে কাজ করে? আমি এ পর্যন্ত যা পেয়েছি তা রাখার চেষ্টা করব। আউটপুট হ'ল x: উপর নির্ভর করে সম্ভাবনার আকারে লজিস্টিক ফাংশনের আউটপুট পি( y)= 1 | x ) = 11 + ই- ωটিএক্স≡ σ( ω)টিএক্স )P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)={1\over1+e^{-\omega^Tx}}\equiv\sigma(\omega^Tx) পি( y)= 0 | x ) = …

5
খুব বড় সংখ্যক ডেটা পয়েন্টে মানগুলির অনুগমন কীভাবে করা যায়?
আমার একটি খুব বড় ডেটাসেট রয়েছে এবং প্রায় 5% এলোমেলো মান অনুপস্থিত। এই ভেরিয়েবলগুলি একে অপরের সাথে সম্পর্কিত হয়। নীচের উদাহরণটি আর ডেটাসেটটি ডমি কোলেলেটেড ডেটা সহ একটি খেলনার উদাহরণ। set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

6
আপনি যদি পয়েন্টের অনুমান ব্যবহার করেন যা সর্বাধিক করে তবে তা আপনার দর্শন সম্পর্কে কী বলে? (ঘনঘনবাদী বা বায়েশিয়ান বা অন্য কিছু?)
কেউ যদি বলেন "এই পদ্ধতিটি এমএলই প্যারামিটারের জন্য পয়েন্ট অনুমানটি ব্যবহার করে যা সর্বাধিক করে তোলে, সুতরাং এটি ঘন ঘনবাদী; এবং আরও এটি বায়েশিয়ান নয়।"P(x|θ)P(x|θ)\mathrm{P}(x|\theta) তুমি কি রাজি? ব্যাকগ্রাউন্ডে আপডেট : আমি সম্প্রতি একটি কাগজ পড়েছি যা ঘনঘনবাদী বলে দাবি করে। আমি তাদের দাবির সাথে একমত নই, সর্বোপরি আমি এটিকে …

3
কলমন ফিল্টারের সম্ভাবনাটি কেন মসৃণ ফলাফলের পরিবর্তে ফিল্টার ফলাফল ব্যবহার করে গণনা করা হয়?
আমি কলমান ফিল্টারটি খুব স্ট্যান্ডার্ড উপায়ে ব্যবহার করছি। সিস্টেম রাষ্ট্র সমীকরণ দ্বারা প্রতিনিধিত্ব করা হয় এবং পর্যবেক্ষণ সমীকরণ ।xt+1=Fxt+vt+1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1}yt=Hxt+Azt+wtyt=Hxt+Azt+wty_{t}=Hx_{t}+Az_{t}+w_{t} পাঠ্যপুস্তকগুলি শিখিয়েছে যে কলম্যান ফিল্টার প্রয়োগ করার পরে এবং "এক-পদক্ষেপের পূর্বাভাস" (বা "ফিল্টার করা প্রাক্কলন") পাওয়ার পরে, আমাদের সেগুলি সম্ভাবনা ফাংশন গণনা করার জন্য ব্যবহার করা উচিত:x^t|t−1x^t|t−1\hat{x}_{t|t-1} fyt|It−1,zt(yt|It−1,zt)=det[2π(HPt|t−1H′+R)]−12exp{−12(yt−Hx^t|t−1−Azt)′(HPt|t−1H′+R)−1(yt−Hx^t|t−1−Azt)}fyt|It−1,zt(yt|It−1,zt)=det[2π(HPt|t−1H′+R)]−12exp⁡{−12(yt−Hx^t|t−1−Azt)′(HPt|t−1H′+R)−1(yt−Hx^t|t−1−Azt)}f_{y_{t}|\mathcal{I}_{t-1},z_{t}}\left(y_{t}|\mathcal{I}_{t-1},z_{t}\right)=\det\left[2\pi\left(HP_{t|t-1}H^{\prime}+R\right)\right]^{-\frac{1}{2}}\exp\left\{ -\frac{1}{2}\left(y_{t}-H\hat{x}_{t|t-1}-Az_{t}\right)^{\prime}\left(HP_{t|t-1}H^{\prime}+R\right)^{-1}\left(y_{t}-H\hat{x}_{t|t-1}-Az_{t}\right)\right\} আমার প্রশ্ন: …

2
পূর্ববর্তী ঘনত্বের সম্ভাবনা কার্যকারণের পূর্ববর্তী ঘনত্ব কেন সমানুপাতিক?
বয়েসের উপপাদ্য অনুসারে, । তবে আমার একনোমেট্রিক পাঠ অনুসারে, এটি বলে যে পি ( θ | y ) ∝ পি ( y | θ ) পি ( θ ) । কেন এমন হয়? আমি কেন পাবেন না পি ( Y ) উপেক্ষা করা হয়।পি( y)| θ)পি( θ ) = পি( …

1
একটি সাধারণ আর এলএম মডেল থেকে লগ-সম্ভাবনা পুনরায় গণনা করুন
আমি কেবল ডিনর্ম () এর সাথে পুনরায় গণনা করার চেষ্টা করছি লগ-লিক ফাংশন দ্বারা সরবরাহ করা লগ-সম্ভাবনাটি কোনও এলএম মডেল (আরে) থেকে। এটি উচ্চ সংখ্যক ডেটা (যেমন এন = 1000) এর জন্য (প্রায় নিখুঁত) কাজ করে: > n <- 1000 > x <- 1:n > set.seed(1) > y <- 10 …

1
পি-মান এবং সম্ভাবনা নীতি
এই প্রশ্নটি শ্রেণিতে উঠে এসেছিল: আমরা যদি পরীক্ষার অনুমানের মূল্যায়ন করার জন্য পি-মানগুলি ব্যবহার করি, তবে সম্ভাবনার নীতিটির কোন অংশটি আমরা মানছি না: পর্যাপ্ততা বা শর্ত ? আমার অনুভূতি বলতে হবে সক্ষমতা , যেহেতু কম্পিউটিং একটি পি-মান একটি পরীক্ষা অলক্ষিত ফলাফল উপর নির্ভর করে, এবং সক্ষমতা একটি একক পরীক্ষা মধ্যে …

4
আমি কীভাবে একটি কক্সিক বিপত্তি মডেল বেঁচে থাকার বক্ররেখা ব্যাখ্যা করব?
কক্স আনুপাতিক বিপদ মডেল থেকে আপনি কীভাবে বেঁচে থাকার কার্ভটিকে ব্যাখ্যা করবেন? এই খেলনা উদাহরণে, ধরুন আমাদের কাছে ডেটা ageপরিবর্তনের ক্ষেত্রে একটি কক্স আনুপাতিক বিপত্তি মডেল রয়েছে kidneyএবং বেঁচে থাকার বক্ররেখা উত্পন্ন করছে। library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() উদাহরণস্বরূপ, সময়ে , কোন বিবৃতিটি সত্য? নাকি দুটোই …

1
একটি "ফ্ল্যাট পূর্ব" সহ কোনও বায়েশিয়ান অনুমান কি সর্বোচ্চ সম্ভাবনার অনুমানের মতো?
ফাইলোজেনেটিক্সে, প্রায়শই এমএলই বা বায়েশিয়ান বিশ্লেষণ ব্যবহার করে ফাইলেজেনেটিক গাছগুলি নির্মিত হয়। প্রায়শই, একটি ফ্ল্যাট পূর্বে বায়েশিয়ান প্রাক্কলনে ব্যবহৃত হয়। যেমনটি আমি এটি বুঝতে পারি, একটি বায়সিয়ান অনুমান একটি সম্ভাবনা অনুমান যা পূর্বে অন্তর্ভুক্ত করে। আমার প্রশ্ন হ'ল, আপনি যদি ফ্ল্যাট আগে ব্যবহার করেন তবে এটি কি সম্ভাবনা বিশ্লেষণের থেকে …

1
একটি রূপান্তর অধীনে ফিশার তথ্য পর্যবেক্ষণ
"সমস্ত সম্ভাবনায়: পরিসংখ্যানের মডেলিং এবং সম্ভাবনা ব্যবহারের সম্ভাবনা" থেকে ওয়াই পাভিটান, পুনরায় পরামিতিকরণের সম্ভাবনা । ↦ জি( Θ ) = ψθ↦g(θ)=ψ\theta\mapsto g(\theta)=\psi হিসাবে সংজ্ঞায়িত করা হয় এল*( ψ ) =সর্বোচ্চ{ θ : জি( Θ ) = ψ }এল ( θ )L∗(ψ)=max{θ:g(θ)=ψ}L(θ) L^*(\psi)=\max_{\{\theta:g(\theta)=\psi\}} L(\theta) যাতে যদি এক-থেকে-এক হয় তবে (পৃষ্ঠা 45)। …

2
প্রান্তিক সম্ভাবনার মজবুত এমসিসিএমের অনুমানকারী?
আমি মন্টি কার্লো পদ্ধতি দ্বারা একটি পরিসংখ্যানের মডেলটির প্রান্তিক সম্ভাবনা গণনা করার চেষ্টা করছি: চ( এক্স ) = ∫চ( x ∣ θ ) π( θ )ঘθচ(এক্স)=∫চ(এক্স|θ)π(θ)ঘθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta সম্ভাবনাটি ভাল আচরণ করা হয় - মসৃণ, লগ-অবতল - তবে উচ্চ-মাত্রিক। আমি স্যাম্পলিংয়ের গুরুত্বের চেষ্টা করেছি, তবে ফলাফলগুলি দুর্দান্ত …

1
প্রদত্ত এমএলই (মার্কভ চেইন) এর লগ-সম্ভাবনার গণনা করা হচ্ছে
আমি বর্তমানে মার্কভ চেইনের সাথে কাজ করছি এবং বেশিরভাগ উত্সের পরামর্শ অনুসারে রূপান্তর সম্ভাবনা ব্যবহার করে সর্বাধিক সম্ভাবনার প্রাক্কলন গণনা করেছি (উদাহরণস্বরূপ, একটি থেকে অন্য নোডে সামগ্রিক রূপান্তরের সংখ্যা দ্বারা বিভক্ত একটি থেকে বি স্থানান্তরের সংখ্যা)। আমি এখন এমএলই-এর লগ-সম্ভাবনা গণনা করতে চাই।
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.