প্রশ্ন ট্যাগ «maximum-likelihood»

প্রদত্ত নমুনা পর্যালোচনা করার সম্ভাবনাটিকে অনুকূল করে যে পরামিতি মানটি বেছে নিয়ে একটি পরিসংখ্যানগত মডেলের পরামিতিগুলির অনুমানের একটি পদ্ধতি।

1
আউটপুট স্তরে ক্রস-এন্ট্রপি বা লগের সম্ভাবনা
আমি এই পৃষ্ঠাটি পড়েছি: http://neuranetworksandDPlearning.com/chap3.html এবং এটি বলেছে যে ক্রস-এন্ট্রপি সহ সিগময়েড আউটপুট স্তর লগ-সম্ভাবনার সাথে সফটম্যাক্স আউটপুট স্তরটির সাথে বেশ সমান। যদি আমি লগ-সম্ভাবনা সহ সিগময়েড বা আউটপুট স্তরটিতে ক্রস এনট্রপি সহ সফটম্যাক্স ব্যবহার করি তবে কী হবে? এটা কি ঠিক আছে? কারণ আমি দেখতে পাচ্ছি যে ক্রস এনট্রপির …

5
মেশিন লার্নিংয়ের শ্রেণিবদ্ধ / নেস্টেড ডেটা কীভাবে মোকাবেলা করবেন
আমি আমার সমস্যাটি একটি উদাহরণ দিয়ে ব্যাখ্যা করব। ধরুন আপনি কোনও ব্যক্তির আয়ের ভবিষ্যদ্বাণী করতে চান এমন কয়েকটি বৈশিষ্ট্য দেওয়া হয়েছে: {বয়স, লিঙ্গ, দেশ, অঞ্চল, শহর} আপনার মতো প্রশিক্ষণ ডেটাসেট রয়েছে train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

3
ফিশারের তথ্য কী ধরণের?
মনে করুন আমাদের কাছে এলোমেলো পরিবর্তনশীল । যদি সত্য প্যারামিটার হয় তবে সম্ভাবনা ফাংশনটি সর্বাধিক করা উচিত এবং শূন্যের সমান ডেরিভেটিভ হওয়া উচিত। সর্বাধিক সম্ভাবনা অনুমানের পিছনে এটিই মূল নীতি।X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 আমি এটি বুঝতে হিসাবে, ফিশার তথ্য হিসাবে সংজ্ঞায়িত করা হয় I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] সুতরাং, …

1
কাটা কাটা বিতরণের জন্য সর্বাধিক সম্ভাবনার অনুমানক
একটি এলোমেলো পরিবর্তনশীল এক্স থেকে প্রাপ্ত স্বতন্ত্র নমুনা এস বিবেচনা করুন যা পরিচিত (সসীম) ন্যূনতম এবং সর্বাধিক মান a এবং b তবে অজানা প্যারামিটার μ এবং σ 2 এর একটি কাটা বিতরণ (যেমন একটি ছাঁটাই করা সাধারণ বন্টন ) অনুসরণ করে । তাহলে এক্স একটি অ-ছেঁটে ফেলা বন্টন অনুসৃত, সর্বোচ্চ …

3
অভিজ্ঞতামূলক সম্ভাবনার কয়েকটি চিত্রণমূলক প্রয়োগগুলি কী কী?
আমি ওভেনের অভিজ্ঞতাগত সম্ভাবনা শুনেছি, তবে সম্প্রতি আগ্রহের কাগজে না এসে যতক্ষণ না এটিকে মনোযোগ দেওয়া হয়েছে ( মেনজারেন এট আল। ২০১২ )। এটি বোঝার জন্য আমার প্রচেষ্টায়, আমি করেছি যে পর্যবেক্ষণ করা তথ্যের সম্ভাবনাটি , যেখানে এবং ।L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L = \prod_i p_i = \prod_i P(X_i=x) = \prod_i P(X_i \le x) …

5
সর্বাধিক সম্ভাবনার অনুমান - কেন এটি বহু ক্ষেত্রে পক্ষপাতদুষ্ট হওয়া সত্ত্বেও ব্যবহৃত হয়
সর্বাধিক সম্ভাবনার প্রাক্কলন প্রায়শই পক্ষপাতদুষ্ট অনুমানকারীগুলির মধ্যে আসে (যেমন, নমুনার বৈকল্পিকতার জন্য এটির অনুমান গাউসীয় বিতরণের জন্য পক্ষপাতদুষ্ট)। তাহলে কী এত জনপ্রিয় হয়েছে? কেন এটি এত ব্যবহার করা হয়? এছাড়াও, বিশেষত কোনটি বিকল্প পদ্ধতির চেয়ে ভাল করে তোলে - মুহুর্তের পদ্ধতি? এছাড়াও, আমি লক্ষ করেছি যে গাউসের পক্ষে, এমএলই অনুমানের …

3
পক্ষপাতদুষ্ট সর্বোচ্চ সম্ভাবনা অনুমানের পিছনে স্বজ্ঞাত যুক্তি
পক্ষপাতদুষ্ট সর্বাধিক সম্ভাবনা (এমএল) অনুমানকারী সম্পর্কে আমার একটি বিভ্রান্তি রয়েছে । পুরো ধারণার গণিতটি আমার কাছে বেশ স্পষ্ট তবে আমি এর পিছনে স্বজ্ঞাত যুক্তিটি বের করতে পারি না। একটি নির্দিষ্ট ডেটাসেট দেওয়া হয়েছে যার একটি ডিস্ট্রিবিউশন থেকে নমুনা রয়েছে, যা নিজেই আমরা অনুমান করতে চাই যে একটি প্যারামিটারের ফাংশন, এমএল …

2
আমি কখন এমএলই এর জন্য আর এর এনএলএম ফাংশন ব্যবহার করব না?
আমি বেশ কয়েকটি সম্ভাব্য অনুমানের জন্য আর এর এনএলএম ব্যবহার করার পরামর্শ দিয়ে কয়েকজন গাইড জুড়েছি। তবে এগুলির কোনওটিই ( আর এর ডকুমেন্টেশন সহ ) কখন ফাংশনটি ব্যবহার করবেন বা ব্যবহার করবেন না সে সম্পর্কিত তাত্ত্বিক দিকনির্দেশনা দেয়। যতদূর আমি বলতে পারি, এনএলএম নিউটনের পদ্ধতির লাইন ধরে কেবল গ্রেডিয়েন্ট বংশোদ্ভূত …

2
নিউরাল নেটওয়ার্ক ওজন অনুমান করতে আমরা কি এমএলই ব্যবহার করতে পারি?
আমি কেবল পরিসংখ্যান এবং মডেলগুলির স্টাফ সম্পর্কে পড়াশোনা শুরু করেছি। বর্তমানে, আমার বোধগম্যতা হল আমরা কোনও মডেলের সেরা প্যারামিটার (গুলি) অনুমান করতে এমএলই ব্যবহার করি। যাইহোক, যখন আমি নিউরাল নেটওয়ার্কগুলি কীভাবে কাজ করে তা বোঝার চেষ্টা করি, মনে হয় তারা সাধারণত প্যারামিটারগুলি অনুমান করার জন্য অন্য পদ্ধতির ব্যবহার করে। কেন …

4
এমএলই সমস্যার জন্য সর্বদা কি কোনও ম্যাক্সিমাইজার থাকে?
আমি অবাক হয়েছি যদি কোনও সর্বাধিক (লগ-) সম্ভাবনা অনুমানের সমস্যার জন্য সর্বদা একটি ম্যাকিমিমাইজার থাকে? অন্য কথায়, এখানে কি কিছু বিতরণ এবং এর কিছু পরামিতি রয়েছে, যার জন্য এমএলই সমস্যাটির ম্যাক্সিমাইজার নেই? আমার প্রশ্নটি একজন ইঞ্জিনিয়ারের দাবি থেকে আসে যে এমএলইতে ব্যয় ফাংশন (সম্ভাবনা বা লগ-সম্ভাবনা, আমি নিশ্চিত নই যে) …

4
শিক্ষার্থীর টি-বিতরণের জন্য প্যারামিটারগুলি নির্ধারণ করা
শিক্ষার্থীদের টি-বিতরণের পরামিতিগুলির সর্বাধিক সম্ভাবনার অনুমানকারীগুলি কী কী? এগুলি কি বন্ধ আকারে বিদ্যমান? একটি দ্রুত গুগল অনুসন্ধান আমাকে কোনও ফলাফল দেয়নি। আজ আমি অবিচ্ছিন্ন ক্ষেত্রে আগ্রহী, তবে সম্ভবত আমাকে একাধিক মাত্রায় মডেলটি প্রসারিত করতে হবে। সম্পাদনা: আমি অবস্থান এবং স্কেল পরামিতিগুলিতে বেশিরভাগ ক্ষেত্রে আগ্রহী। আপাতত আমি ধরে নিতে পারি যে …

2
প্যারামিটার অনুমানের জন্য দ্বি দ্বি বিতরণের সম্ভাবনা ফাংশনটি কীভাবে অর্জন করতে হয়?
মিলার এবং ফ্রেন্ডের সম্ভাব্যতা এবং প্রকৌশলীদের জন্য পরিসংখ্যান অনুসারে , 8 ইড (পিপি ২১17-২১৮), দ্বিপদী বিতরণের (বার্নোল্লি ট্রায়াল) সর্বাধিক করার সম্ভাবনা ফাংশনটি দেওয়া হয়েছে এল ( পি ) = ∏এনi = 1পিএক্সআমি( 1 - পি )1 - এক্সআমিএল(পি)=Πআমি=1এনপিএক্সআমি(1-পি)1-এক্সআমিL(p) = \prod_{i=1}^np^{x_i}(1-p)^{1-x_i} এই সমীকরণে কীভাবে পৌঁছবেন? পোয়েসন এবং গাউসিয়ান অন্যান্য বিতরণ সম্পর্কে …

4
নিরপেক্ষ সর্বাধিক সম্ভাবনা অনুমানকারী কি সর্বদা সেরা নিরপেক্ষ অনুমানক?
আমি নিয়মিত সমস্যাগুলির জন্য জানি, আমাদের যদি সেরা নিয়মিত নিরপেক্ষ অনুমানক থাকে তবে এটি অবশ্যই সর্বাধিক সম্ভাবনা অনুমানকারী (এমএলই) হতে হবে। তবে সাধারণত, যদি আমাদের একটি পক্ষপাতহীন এমএলই থাকে, তবে এটিও কি সেরা পক্ষপাতদুষ্ট প্রাক্কলনকারী হবে (বা সম্ভবত আমি একে UMVUE বলতে পারি, যতক্ষণ না এর মধ্যে সবচেয়ে ছোটতম বৈকল্পিক …

1
আর-তে, হেসিয়ান ম্যাট্রিক্সের সাথে সর্বোত্তম থেকে আউটপুট দেওয়া হয়েছে, কীভাবে হেসিয়ান ম্যাট্রিক্স ব্যবহার করে প্যারামিটারের আত্মবিশ্বাসের অন্তরগুলি গণনা করতে হবে?
হেসিয়ান ম্যাট্রিক্সের সাথে সর্বোত্তম থেকে আউটপুট দেওয়া হয়েছে, কীভাবে হেসিয়ান ম্যাট্রিক্স ব্যবহার করে প্যারামিটারের আত্মবিশ্বাসের ব্যবধান গণনা করতে হবে? fit<-optim(..., hessian=T) hessian<-fit$hessian আমি সর্বাধিক সম্ভাবনা বিশ্লেষণের প্রসঙ্গে আগ্রহী, তবে পদ্ধতিটি ছাড়িয়ে আরও প্রসারিত করা যায় কিনা তা জানতে আগ্রহী।

4
সর্বাধিক সম্ভাবনা ব্যবহার করে মাল্টিভারিয়েট নরমাল মডেল লাগানোর সময় কোভারিয়েন্স ম্যাট্রিক্সের বৈশিষ্ট্যগুলি কীভাবে নিশ্চিত করা যায়?
ধরুন আমার নীচের মডেলটি রয়েছে yi=f(xi,θ)+εiyi=f(xi,θ)+εiy_i=f(x_i,\theta)+\varepsilon_i যেখানে , ব্যাখ্যামূলক ভেরিয়েবলের একটি ভেক্টর, হ'ল অ-লিনিয়ার ফাংশন এবং , যেখানে প্রাকৃতিকভাবে ম্যাট্রিক্স।yi∈RKyi∈RKy_i\in \mathbb{R}^Kxixix_iθθ\thetafffεi∼N(0,Σ)εi∼N(0,Σ)\varepsilon_i\sim N(0,\Sigma)ΣΣ\SigmaK×KK×KK\times K লক্ষ্য অনুমান করার জন্য স্বাভাবিক এবং । সুস্পষ্ট পছন্দ সর্বাধিক সম্ভাবনা পদ্ধতি। এই মডেলের জন্য লগ-সম্ভাবনা (ধরে আমাদের কাছে একটি নমুনা রয়েছে ) দেখে মনে হচ্ছেθθ\thetaΣΣ\Sigma(yi,xi),i=1,...,n(yi,xi),i=1,...,n(y_i,x_i),i=1,...,n l(θ,Σ)=−n2log(2π)−n2logdetΣ−∑i=1n(yi−f(xi,θ))′Σ−1(y−f(xi,θ)))l(θ,Σ)=−n2log⁡(2π)−n2log⁡detΣ−∑i=1n(yi−f(xi,θ))′Σ−1(y−f(xi,θ)))l(\theta,\Sigma)=-\frac{n}{2}\log(2\pi)-\frac{n}{2} …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.