প্রশ্ন ট্যাগ «least-squares»

একটি সাধারণ অনুমানের কৌশলকে বোঝায় যে দুটি পরিমাণের মধ্যে বর্গক্ষেত্রের পার্থক্য হ্রাস করার জন্য প্যারামিটার মানটি নির্বাচন করে, যেমন একটি ভেরিয়েবলের পর্যবেক্ষণকৃত মান এবং সেই পর্যবেক্ষণের প্রত্যাশিত মানটি প্যারামিটার মানের শর্তযুক্ত। গাউসীয় লিনিয়ার মডেলগুলি সর্বনিম্ন স্কোয়ার দ্বারা মাপসই হয় এবং সর্বনিম্ন স্কোয়ারগুলি একটি অনুমানকারীকে মূল্যায়নের উপায় হিসাবে গড়-স্কোয়ার্ড-ত্রুটি (এমএসই) ব্যবহারের অন্তর্নিহিত ধারণা।

3
সর্বনিম্ন স্কোয়ারগুলি কখন খারাপ ধারণা হবে?
যদি আমার কাছে রিগ্রেশন মডেল থাকে: যেখানে এবং ,ওয়াই= এক্সβ+ + εY=Xβ+ε Y = X\beta + \varepsilon ভি [ε]=আমিঘ। আরn × nV[ε]=Id∈Rn×n\mathbb{V}[\varepsilon] = Id \in \mathcal{R} ^{n \times n}ই [ε]=(0,…,0)E[ε]=(0,…,0)\mathbb{E}[\varepsilon]=(0, \ldots , 0) কখন βOLS ঔজ্জ্বল্যের প্রেক্ষাপটেβOLS\beta_{\text{OLS}} , সাধারণ least ββ\beta এর সর্বনিম্ন স্কোয়ারের অনুমানকারী , কোনও অনুমানকারীের পক্ষে বাজে …

3
এআর (1) এর ওএলএস এর প্রাক্কলনকারী সহকারী পক্ষপাতদুষ্ট কেন?
আমি বুঝতে চেষ্টা করছি যে ওএলএস কেন একটি এআর (1) প্রক্রিয়াটির পক্ষপাতদুষ্ট অনুমানকারী দেয়। বিবেচনা করুন this এই মডেলটিতে, কঠোর লঙ্ঘন করা হয়, যথা এবং পারস্পরিক সম্পর্কযুক্ত তবে এবং । তবে এটি যদি সত্য হয় তবে নীচের সাধারণ ব্যয়টি কেন ধরে না? ytϵt=α+βyt−1+ϵt,∼iidN(0,1).yt=α+βyt−1+ϵt,ϵt∼iidN(0,1). \begin{aligned} y_{t} &= \alpha + \beta y_{t-1} …

4
যখন ত্রুটিগুলি সাধারণত বিতরণ করা হয় না তখন কেন রিগ্রেশন-এর সর্বনিম্ন-স্কোয়ারস এবং সর্বাধিক সম্ভাবনার পদ্ধতিগুলি সমতুল্য নয়?
শিরোনাম সব বলে। আমি বুঝতে পারি যে যদি মডেলের ত্রুটিগুলি সাধারণত বিতরণ করা হয় তবে কমপক্ষে স্কোয়ারগুলি এবং সর্বাধিক সম্ভাবনা রিগ্রেশন সহগগুলির জন্য একই ফল দেবে। তবে, ত্রুটিগুলি সাধারণত বিতরণ না করা হলে কী হবে? দুটি পদ্ধতি এখন আর সমান নয় কেন?

3
সীমাবদ্ধ (অ-নেতিবাচক) সর্বনিম্ন স্কোয়ারে পি-মানগুলি গণনা করা হচ্ছে
আমি মাতলাবকে অনিয়ন্ত্রিত ন্যূনতম স্কোয়ারগুলি (সাধারণ ন্যূনতম স্কোয়ারগুলি) সম্পাদন করতে ব্যবহার করছি এবং এটি স্বয়ংক্রিয়ভাবে সহগ, পরীক্ষার পরিসংখ্যান এবং পি-মানগুলিকে ছাড়িয়ে যায়। আমার প্রশ্নটি হ'ল সীমাবদ্ধ ন্যূনতম স্কোয়ারগুলি (কঠোরভাবে nonnegative সহগ) সম্পাদন করার পরে, এটি পরীক্ষার পরিসংখ্যান, p- মান ব্যতীত কেবল সহগকেই আউটপুট করে। তাত্পর্য নিশ্চিত করার জন্য এই মানগুলি …

3
অনুভূতি
লিনিয়ার রিগ্রেশন এ ডাব্লু এর বন্ধ ফর্ম হিসাবে লেখা যেতে পারে w^=(XTX)−1XTyw^=(XTX)−1XTy\hat{w}=(X^TX)^{-1}X^Ty কীভাবে আমরা এই সমীকরণে এর ভূমিকা স্বজ্ঞাতভাবে ব্যাখ্যা করতে (XTX)−1(XTX)−1(X^TX)^{-1}পারি?

2
ওএলএস ব্যবহার করে অবশিষ্টাংশে ত্রুটিগুলি নিবারণের সময় opeালটি সর্বদা ঠিক 1 কেন হয়?
আমি আর তে কিছু সাধারণ সিমুলেশন ব্যবহার করে ত্রুটিগুলি এবং অবশিষ্টাংশের মধ্যে সম্পর্কের সাথে পরীক্ষা করছিলাম One একটি জিনিস আমি খুঁজে পেয়েছি সেটি হল, নমুনার আকার বা ত্রুটির বৈচিত্র নির্বিশেষে, আপনি যখন মডেলটি ফিট করেন তখন আমি সর্বদা theালের জন্য ঠিক পাই111 errors∼β0+β1×residualserrors∼β0+β1×residuals {\rm errors} \sim \beta_0 + \beta_1 \times …

1
সাধারণ ন্যূনতম স্কোয়ারের নীচে ডাবল বার এবং 2 এর অর্থ কী?
আমি এখানে স্বল্প স্বল্প স্কোয়ারের জন্য এই স্বরলিপিটি দেখেছি । minw∥Xw−y∥22minw‖Xw−y‖22 \min_w \left\| Xw - y \right\|^2_2 ডাবল বার এবং নীচে 2 টি কখনও দেখিনি। এই চিহ্নগুলির অর্থ কী? তাদের জন্য কি কোনও নির্দিষ্ট পরিভাষা রয়েছে?

2
শর্তাধীন মানে স্বতন্ত্রতা ওএলএসের অনুমানকারকের পক্ষপাতহীনতা এবং ধারাবাহিকতা বোঝায়
নিম্নলিখিত একাধিক রিগ্রেশন মডেলটি বিবেচনা করুন:Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} এখানে হ'ল একটি কলাম ভেক্টর; এ ম্যাট্রিক্স; এ কলাম ভেক্টর; এ ম্যাট্রিক্স; একটি কলাম ভেক্টর; এবং , ত্রুটি শর্ত, একটি কলাম ভেক্টর।YYYn×1n×1n\times 1XXXn×(k+1)n×(k+1)n\times (k+1)ββ\beta(k+1)×1(k+1)×1(k+1)\times 1ZZZn×ln×ln\times lδδ\deltal×1l×1l\times 1UUUn×1n×1n\times1 প্রশ্ন আমার প্রভাষক, একনোমেট্রিক্সের পাঠ্যপুস্তক পরিচিতি, তৃতীয় সংস্করণ। জেমস এইচ। স্টক এবং মার্ক ডব্লু ওয়াটসন, পি। ২৮১ …

1
জেনারেলাইজড ন্যূনতম স্কোয়ার: রিগ্রেশন কোয়েফিয়েন্টস থেকে রিলেশন কোএফিসিয়েন্ট?
একজন ভবিষ্যদ্বাণীকারীর সাথে কমপক্ষে স্কোয়ারের জন্য: Y= βএক্স + + εY=βএক্স+ +εy = \beta x + \epsilon যদি এবং ফিটিংয়ের আগে মানক করা হয় (যেমন ), তবে:এক্সএক্সxYYy। এন( 0 , 1 )~এন(0,1)\sim N(0,1) ββ\beta পিয়ারসন পারস্পরিক সম্পর্ক সহগ হিসাবে একই, ।RRr ββ\beta প্রতিফলিত রিগ্রেশন একই হল:x = βY+ + εএক্স=βY+ …

1
আমি কীভাবে আমার আরিমা মডেলটিতে পর্যবেক্ষণে একটি উদ্ভাবনী আউটলেটর অন্তর্ভুক্ত করব?
আমি একটি ডেটা সেট নিয়ে কাজ করছি। কিছু মডেল সনাক্তকরণ কৌশল ব্যবহার করার পরে, আমি একটি আরিমা (0,2,1) মডেল নিয়ে এসেছি। আমি আমার মূল ডেটা সেটটির 48 তম পর্যবেক্ষণে একটি উদ্ভাবনী আউটলেটর (আইও) সনাক্ত করতে detectIOপ্যাকেজে প্যাকেজে ফাংশনটি ব্যবহার করেছি।TSA আমি কীভাবে এই আউটলেটটিকে আমার মডেলটিতে অন্তর্ভুক্ত করব যাতে আমি …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

3
মধ্যে সম্পর্ক
সম্পর্কিত একটি খুব প্রাথমিক প্রশ্ন আর2আর2R^2 ওএলএস সংবিধানের ওএলএস রিগ্রেশন y ~ x1 চালান, আমাদের একটি রয়েছে আর2আর2R^2, 0.3 বলুন ওএলএস রিগ্রেশন y ~ x2 চালান, আমাদের আরেকটি আছে আর2আর2R^2বলুন, 0.4 এখন আমরা y ~ x1 + x2 একটি রিগ্রেশন চালাচ্ছি, এই রিগ্রেশন এর আর স্কোয়ারের মান কত হতে পারে? …


4
পৃথক সময়ের ইভেন্ট ইতিহাস (বেঁচে থাকা) মডেল আর
আমি আর-তে একটি পৃথক-সময়ের মডেল ফিট করার চেষ্টা করছি তবে কীভাবে এটি করব তা নিশ্চিত নই। আমি পড়েছি যে আপনি বিভিন্ন সারিতে নির্ভরশীল পরিবর্তনশীল, প্রতিটি সময়-পর্যবেক্ষণের জন্য glmএকটি এবং লজিট বা ক্লোগলগ লিঙ্কের সাহায্যে ফাংশনটি ব্যবহার করতে পারেন । এই অর্থে, আমি তিনটি কলাম আছে: ID, Event(1 বা 0, প্রতিটি …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
আর লিনিয়ার রিগ্রেশন শ্রেণিবদ্ধ পরিবর্তনশীল "লুকানো" মান
এটি কেবলমাত্র একটি উদাহরণ যা আমি বেশ কয়েকবার এসেছি, সুতরাং আমার কোনও নমুনা ডেটা নেই। আরে লিনিয়ার রিগ্রেশন মডেল চালাচ্ছেন: a.lm = lm(Y ~ x1 + x2) x1একটি অবিচ্ছিন্ন পরিবর্তনশীল। x2শ্রেণীবদ্ধ এবং এর তিনটি মান রয়েছে যেমন "নিম্ন", "মাঝারি" এবং "উচ্চ"। তবে আর দ্বারা প্রদত্ত আউটপুটটি এরকম কিছু হবে: summary(a.lm) …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
লিনিয়ার রিগ্রেশন ক্ষেত্রে এমএলই এবং সর্বনিম্ন স্কোয়ারের মধ্যে সম্পর্ক
হস্টি এবং তিবশিরানী তাদের বইয়ের ৪.৩.২ বিভাগে উল্লেখ করেছেন যে লিনিয়ার রিগ্রেশন সেটিং-এ, সর্বনিম্ন স্কোয়ার্স পদ্ধতির পক্ষে সর্বাধিক সম্ভাবনার একটি বিশেষ ঘটনা। কীভাবে আমরা এই ফলাফলটি প্রমাণ করতে পারি? পিএস: কোনও গাণিতিক বিশদ ছাড়বেন না।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.