Bayesian আপডেট মৌলিক ধারণা যে কিছু ডেটা দেওয়া হয় X এবং পূর্বে সুদের উপর পরামিতি θ , যেখানে তথ্য এবং প্যারামিটার মধ্যে সম্পর্ক ব্যবহার বর্ণনা করা হয়েছে সম্ভাবনা ফাংশন, আপনি বায়েসের ব্যবহার উপপাদ্য অবর প্রাপ্ত
p(θ∣X)∝p(X∣θ)p(θ)
এই ক্রমানুসারে সম্পন্ন যেতে পারে, যেখানে প্রথম ডাটা পয়েন্ট দেখার পর পূর্বে θ আপডেট হয়ে অবর θ ' , পরবর্তী আপনি দ্বিতীয় ডাটা পয়েন্ট নিতে পারেন এক্স 2 এবং ব্যবহার অবর সামনে প্রাপ্ত θ ' আপনার যেমন পূর্বে আবার ইত্যাদি, এটা আপডেট করার জন্যx1 θ θ′x2θ′
Let me give you an example. Imagine that you want to estimate mean μ of normal distribution and σ2 is known to you. In such case we can use normal-normal model. We assume normal prior for μ with hyperparameters μ0,σ20:
X∣μμ∼Normal(μ, σ2)∼Normal(μ0, σ20)
μ
E(μ′∣x)Var(μ′∣x)=σ2μ+σ20xσ2+σ20=σ2σ20σ2+σ20
Unfortunately, such simple closed-form solutions are not available for more sophisticated problems and you have to rely on optimization algorithms (for point estimates using maximum a posteriori approach), or MCMC simulation.
Below you can see data example:
n <- 1000
set.seed(123)
x <- rnorm(n, 1.4, 2.7)
mu <- numeric(n)
sigma <- numeric(n)
mu[1] <- (10000*x[i] + (2.7^2)*0)/(10000+2.7^2)
sigma[1] <- (10000*2.7^2)/(10000+2.7^2)
for (i in 2:n) {
mu[i] <- ( sigma[i-1]*x[i] + (2.7^2)*mu[i-1] )/(sigma[i-1]+2.7^2)
sigma[i] <- ( sigma[i-1]*2.7^2 )/(sigma[i-1]+2.7^2)
}
If you plot the results, you'll see how posterior approaches the estimated value (it's true value is marked by red line) as new data is accumulated.
For learning more you can check those slides and Conjugate Bayesian analysis of the Gaussian distribution paper by Kevin P. Murphy. Check also Do Bayesian priors become irrelevant with large sample size? You can also check those notes and this blog entry for accessible step-by-step introduction to Bayesian inference.