প্রশ্ন ট্যাগ «regularization»

মডেল ফিটিং প্রক্রিয়ায় অতিরিক্ত বাধা (সাধারণত জটিলতার জন্য জরিমানা) অন্তর্ভুক্ত করা। পূর্বাভাসমূলক নির্ভুলতা বাড়াতে / প্রতিরোধ করতে ব্যবহৃত হয়।

1
স্বাধীনতার ডিগ্রি কি একটি অ-পূর্ণসংখ্যার সংখ্যা হতে পারে?
আমি যখন জিএএম ব্যবহার করি তখন এটি আমাকে অবশিষ্ট ডিএফ (কোডের শেষ লাইন)। ওটার মানে কি? জিএএম উদাহরণ ছাড়িয়ে যান, সাধারণভাবে, স্বাধীনতার ডিগ্রির সংখ্যাটি একটি অ-পূর্ণসংখ্যার সংখ্যা হতে পারে?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
"নিয়ন্ত্রণ" শব্দটির উত্স
আমি যখন আমার শিক্ষার্থীদের কাছে ধারণাগুলি প্রবর্তন করি তখন প্রায়শই আমি তাদের মতে মজাদার মনে করি যেগুলি পরিভাষাটি উত্পন্ন হয় ("রিগ্রেশন", উদাহরণস্বরূপ, একটি আকর্ষণীয় উত্স সহ একটি শব্দ)। আমি পরিসংখ্যান / মেশিন লার্নিংয়ে "নিয়মিতকরণ" শব্দটির ইতিহাস / পটভূমি চালু করতে পারিনি। সুতরাং, নিয়মিতকরণ শব্দটির উত্স কী ?

2
লাসোর পেনাল্টি কেন আগে ডাবল এক্সপেনশিয়ালের (ল্যাপ্লেস) সমতুল্য?
আমি রেফারেন্স একটি সংখ্যা পড়া আছে যে রিগ্রেশন প্যারামিটার ভেক্টর জন্য Lasso অনুমান এর অবর মোড সমতূল্য যাতে প্রতিটি জন্য পূর্বের বন্টন একটি ডবল সূচকীয় বণ্টনের (এছাড়াও Laplace বন্টন নামেও পরিচিত) হয়।BBBBBBBiBiB_i আমি এটি প্রমাণ করার চেষ্টা করে যাচ্ছি, কেউ কি বিশদটি প্রকাশ করতে পারেন?

6
কেন ছোট ওজনগুলি নিয়মিতকরণে সহজ মডেলগুলির ফলাফল করে?
আমি প্রায় এক বছর আগে অ্যান্ড্রু এনগের মেশিন লার্নিং কোর্সটি সম্পন্ন করেছি এবং এখন লজিস্টিক রিগ্রেশন এবং পারফরম্যান্সকে অনুকূল করার কৌশলগুলি সম্পর্কে আমার হাই স্কুল গণিত অনুসন্ধানটি লিখছি writing এই কৌশলগুলির মধ্যে একটি অবশ্যই নিয়মিতকরণ। নিয়ন্ত্রণের লক্ষ্য হল মডেলের সরলতার লক্ষ্য অন্তর্ভুক্ত করার জন্য ব্যয় ক্রিয়াকে বাড়িয়ে ওভারফিটিং প্রতিরোধ করা। …

2
"ডাবল লাসো" করার বা দুবার লসো করার সুবিধা?
আমি একবার লাসো দুবার ব্যবহার করার পদ্ধতি শুনেছি (ডাবল-লাসোর মতো) যেখানে আপনি ভেরিয়েবলের আসল সেটটিতে লাসো সঞ্চালন করেন, এস 1 বলুন, এস 2 নামক একটি স্পারস সেট পান এবং তারপরে সেট এস 3 পেতে লসো আবার সেট করুন। । এর জন্য কি কোনও পদ্ধতিগত পদ আছে? এছাড়াও, দুবার লাসো করার …

3
ভেরিয়েবলের লাসো-চিহ্নিত উপসেটে ওএলএস অনুমানের চেয়ে লাসো অনুমানগুলি কেন ব্যবহার করবেন?
লাসোর রিগ্রেশন ধরুন সেরা সমাধান (উদাহরণস্বরূপ ন্যূনতম পরীক্ষার ত্রুটি) k বৈশিষ্ট্যগুলি নির্বাচন করে, যাতে \ টুপি {\ বিটা} ^ {লাসো} = \ বাম (\ টুপি \ a বিটা _1 _1 _1 {লাসো}, \ টুপি \ বিটা} _2 ^ ss লাসো}, ..., \ টুপি \ \ বিটা _ কে ^ {লাসো}, …

5
শীর্ষস্থানীয় প্রধান উপাদানগুলি নির্ভরশীল পরিবর্তনশীল (বা আরও ভাল পূর্বাভাসের দিকেও যেতে পারে) এর উপর ভবিষ্যদ্বাণীপূর্ণ শক্তি ধরে রাখতে পারে?
মনে করুন আমি একটি রিগ্রেশন চালাচ্ছি । কেন এক্স এর শীর্ষ কে নীতি উপাদান নির্বাচন করে, মডেলটি ওয়াইয়ের উপর তার ভবিষ্যদ্বাণীপূর্ণ শক্তি ধরে রাখে ?ওয়াই। এক্সY∼XY \sim Xএক্স ওয়াইটkkএক্সXXওয়াইYY আমি বুঝতে পারি যে মাত্রিকতা-হ্রাস / বৈশিষ্ট্য-নির্বাচনের দৃষ্টিকোণ থেকে, যদি v_1, v_2, ... v_k শীর্ষ কে ইগেনভ্যালুগুলির সাথে এক্সেরবনাম1, ভি2, । …

3
রিগ্রেশনে রিজ নিয়মিতকরণের ব্যাখ্যা
ন্যূনতম স্কোয়ার্স প্রসঙ্গে রিজ পেনাল্টি সম্পর্কে আমার বেশ কয়েকটি প্রশ্ন রয়েছে: βr i dছই= ( λ আইডি+ এক্স'এক্স)−1X′yβridge=(λID+X′X)−1X′y\beta_{ridge} = (\lambda I_D + X'X)^{-1}X'y 1) অভিব্যক্তিটি সূচিত করে যে এক্স এর কোভারিয়েন্স ম্যাট্রিক্সটি একটি তির্যক ম্যাট্রিক্সের দিকে সঙ্কুচিত হয়েছে, যার অর্থ (প্রক্রিয়াটির আগে ভেরিয়েবলগুলি মানক হিসাবে ধরে নেওয়া হয়) ইনপুট ভেরিয়েবলগুলির …

2
এটি পিসিএ এবং এলডিএকে একত্রিত করার জন্য কি বোধগম্য?
ধরুন আমার কাছে তত্ত্বাবধানের পরিসংখ্যান শ্রেণিবদ্ধকরণের জন্য একটি ডেটাসেট রয়েছে, যেমন, কোনও বয়েসের শ্রেণিবদ্ধের মাধ্যমে। এই ডেটাসেটে 20 টি বৈশিষ্ট্য রয়েছে এবং আমি প্রিন্সিপাল কম্পোনেন্ট অ্যানালাইসিস (পিসিএ) এবং / অথবা লিনিয়ার ডিসক্রিমেন্ট্যান্ট অ্যানালাইসিস (এলডিএ) এর মতো মাত্রিক হ্রাস কৌশলগুলির মাধ্যমে এটি 2 টি বৈশিষ্ট্যে সিদ্ধ করতে চাই। উভয় কৌশলই ডেটাটিকে …

4
এল 1 রিগ্রেশন মিডিয়ান অনুমান করে যেখানে এল 2 রিগ্রেশন অনুমানের অর্থ?
সুতরাং আমাকে একটি প্রশ্ন জিজ্ঞাসা করা হয়েছিল যার ভিত্তিতে এল 1 (অর্থাত্ লাসো) এবং এল 2 (অর্থাত্ রিজ রিগ্রেশন) কী পরিমাণে পরিমাপ করে। উত্তরটি এল 1 = মিডিয়ান এবং এল 2 = গড়। এটিতে কোনও ধরণের স্বজ্ঞাত যুক্তি রয়েছে কি? নাকি এটি বীজগণিতভাবে নির্ধারণ করতে হবে? যদি তা হয় তবে …

2
লাম্বদা কেন "ন্যূনতম থেকে এক মান ত্রুটির মধ্যে" ইলাস্টিক নেট রিগ্রেশনে লাম্বদার জন্য প্রস্তাবিত মান হয়?
আমি বুঝতে পারি যে ল্যাম্বডা ইলাস্টিক-নেট রিগ্রেশনটিতে কী ভূমিকা পালন করে। এবং আমি বুঝতে পারি যে কেন একজন ল্যাম্বডা.মিন নির্বাচন করবেন, ল্যাম্বদার মান যা ক্রস বৈধতাযুক্ত ত্রুটি হ্রাস করে। আমার প্রশ্ন হ'ল পরিসংখ্যানের সাহিত্যে কোথায় ল্যাম্বডা .১ ব্যবহার করার পরামর্শ দেওয়া হয়েছে, এটি লাম্বডার মান যা সিভি ত্রুটিটি এবং একটি …

2
ল্যাপ্লেস কেন বিরল সমাধান উত্পাদন আগে?
আমি নিয়মিতকরণের উপরের সাহিত্যের দিকে নজর রেখেছিলাম এবং প্রায়শই গৌসিয়ানগুলির সাথে এল 2 নিয়মিতকরণের সাথে এল 2 এবং ল্যাপ্লেসের সাথে শূন্যকে কেন্দ্র করে এল 1-র সংযোগকারী অনুচ্ছেদগুলি দেখি। আমি জানি যে এই প্রিরিয়ারগুলি দেখতে কেমন, তবে আমি বুঝতে পারি না, এটি কীভাবে অনুবাদ করে, উদাহরণস্বরূপ, রৈখিক মডেলের ওজন। এল 1-তে, …

1
ব্রিজ পেনাল্টি বনাম ইলাস্টিক নেট নিয়মিতকরণ
কিছু শাস্তি ফাংশন এবং অনুমান ভাল যেমন Lasso (যেমন চর্চিত হয়, L1L1L_1 ) এবং রিজ ( ) এবং কিভাবে এইসব রিগ্রেশনে তুলনা করুন।L2L2L_2 আমি ব্রিজ পেনাল্টি সম্পর্কে পড়ছি, যা the জেনারেলাইজড পেনাল্টি। এটিকে লাসো-এর সাথে তুলনা করুন, যার এবং রিজকে, সাথে তুলনা করুন, যাতে তাদের বিশেষ কেস তৈরি করে।∑∥βj∥γ∑‖βj‖γ\sum \|\beta_{j}\|^{\gamma}γ=1γ=1\gamma …

2
"হ্রাস-র‌্যাঙ্কের রিগ্রেশন" কী?
আমি স্ট্যাটিস্টিকাল লার্নিং এর উপাদানগুলি পড়ছি এবং আমি বুঝতে পারি না যে বিভাগ 3.7 "একাধিক ফলাফল সংকোচন এবং নির্বাচন" কী is এটি আরআরআর (হ্রাস-র‌্যাঙ্কের রিগ্রেশন) সম্পর্কে আলোচনা করে, এবং আমি কেবল বুঝতে পারি যে ভিত্তিটি একটি সাধারণীকৃত মাল্টিভারিয়েট লিনিয়ার মডেল সম্পর্কে যেখানে সহগগুলি অজানা (এবং অনুমান করা যায়) তবে তার …

3
লারস এবং গ্ল্যামনেট কেন লাসো সমস্যার বিভিন্ন সমাধান দেয়?
আমি আর প্যাকেজগুলি আরও ভালভাবে বুঝতে চাই Larsএবং Glmnetযা লসো সমস্যা সমাধানের জন্য ব্যবহৃত হয়: (জন্য ভেরিয়েবল এবং নমুনা পৃষ্ঠা 3 এ www.stanford.edu/~hastie/Papers/glmnet.pdf দেখুন )পিএনমি i এন( β)0β) ∈ আরপি + 1[ ১2 এনΣi = 1এন( y)আমি- β0- এক্সটিআমিβ)2+ λ | | β| |ঠ1]মিআমিএন(β0β)∈আরপি+ +1[12এনΣআমি=1এন(Yআমি-β0-এক্সআমিটিβ)2+ +λ||β||ঠ1]min_{(\beta_0 \beta) \in R^{p+1}} \left[\frac{1}{2N}\sum_{i=1}^{N}(y_i-\beta_0-x_i^T\beta)^2 …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.