প্রশ্ন ট্যাগ «optimization»

পরিসংখ্যানগুলির মধ্যে কোনও অপ্টিমাইজেশনের ব্যবহারের জন্য এই ট্যাগটি ব্যবহার করুন।

1
আমার নিউরাল নেটওয়ার্ক এমনকি ইউক্লিডিয়ান দূরত্ব শিখতে পারে না
তাই আমি নিজেকে স্নায়বিক নেটওয়ার্কগুলি শেখানোর চেষ্টা করছি (বিড়ালের ছবি শ্রেণিবদ্ধ না করে রিগ্রেশন অ্যাপ্লিকেশনগুলির জন্য)। আমার প্রথম পরীক্ষাগুলি একটি এফআইআর ফিল্টার এবং একটি ডিস্ক্রিট ফুরিয়ার ট্রান্সফর্ম ("আগে" এবং "পরে" সংকেতগুলির উপর প্রশিক্ষণ) প্রয়োগের জন্য একটি নেটওয়ার্ককে প্রশিক্ষণ দিচ্ছিল, কারণ এগুলি উভয়ই লিনিয়ার অপারেশন যা কোনও এক্টিভেশন ফাংশন ছাড়াই একক …

2
গ্রেডিয়েন্ট বংশোদ্ভূত স্থির পদক্ষেপের আকার ব্যবহার করার সময় কেন আমার পদক্ষেপগুলি ছোট হচ্ছে?
মনে করুন আমরা গ্রেডিয়েন্ট শালীন উপর একটি খেলনা উদাহরণ করছি, একটি চতুর্ভুজ ফাংশন হ্রাস এক্সটিএকটি এক্সএক্সটিএকজনএক্সx^TAx, স্থির পদক্ষেপের আকার ব্যবহার করে । = 0.03α=0.03\alpha=0.03। (এ = [ 10 , 2 ; ২ , ৩ ]একজন=[10,2;2,3]A=[10, 2; 2, 3]) যদি আমরা এর ট্রেস প্লট করি এক্সএক্সxপ্রতিটি পুনরাবৃত্তিতে আমরা নিম্নলিখিত চিত্রটি পাই। …

4
রিগ্রেশন জন্য একটি নিউরাল নেটওয়ার্ক প্রশিক্ষণ সর্বদা গড় পূর্বাভাস
আমি রিগ্রেশন-এর জন্য একটি সাধারণ কনভোলিউশনাল নিউরাল নেটওয়ার্ক প্রশিক্ষণ দিচ্ছি, যেখানে কাজটি কোনও চিত্রের একটি বাক্সের (x, y) অবস্থানের পূর্বাভাস দেওয়া, যেমন: নেটওয়ার্কের আউটপুটটিতে দুটি নোড রয়েছে, একটি এক্স এর জন্য এবং একটি y এর জন্য। নেটওয়ার্কের বাকি অংশগুলি একটি স্ট্যান্ডার্ড কনভুলেশনাল নিউরাল নেটওয়ার্ক। ক্ষতিটি বাক্সের পূর্বাভাসিত অবস্থান এবং স্থল …

1
একাধিক প্রত্যাশার গণনা করার সময় কীভাবে অনুকূলভাবে অঙ্কিত হয়
মনে করুন আমরা কিছু প্রত্যাশা গণনা করতে চাই: EYEX|Y[f(X,Y)]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] মনে করুন আমরা মন্টি কার্লো সিমুলেশন ব্যবহার করে এটি আনুমানিক করতে চাই। EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) তবে ধরুন উভয় বিতরণ থেকে নমুনা আঁকা ব্যয়বহুল, যাতে আমরা কেবল একটি নির্দিষ্ট নম্বর আঁকতে পারি । KKK কীভাবে আমরা বরাদ্দ করা উচিত ? উদাহরণগুলিতে প্রতিটি …

1
লাসোর জন্য সরল সাবগ্রেডিয়েন্ট পদ্ধতির পরিবর্তে কেন প্রক্সিমাল গ্রেডিয়েন্ট বংশোদ্ভূত?
আমি ভ্যানিলা সাবগ্রেডিয়েন্ট পদ্ধতিগুলির মাধ্যমে লাসো সমাধান করার চিন্তা করছিলাম। তবে আমি লোকদের প্রক্সিমাল গ্রেডিয়েন্ট বংশোদ্ভূত ব্যবহারের পরামর্শ দিয়েছি। লাসোর জন্য কেন ভ্যানিলা সাবগ্রেডিয়েন্ট পদ্ধতিগুলির পরিবর্তে প্রক্সিমাল জিডি ব্যবহার করা যেতে পারে তা কেউ কেউ হাইলাইট করতে পারে?

2
বর্ণনামূলক ভেরিয়েবল যুক্ত করার সময় বর্গাকার অবশিষ্টাংশের যোগফল কেন বাড়ছে না?
আমার একনোমেট্রিক পাঠ্যপুস্তকে (প্রবর্তক একনোমেট্রিক্স) ওএলএসকে আচ্ছাদন করে লেখক লিখেছেন, "এসএসআর অবশ্যই পড়তে হবে যখন অন্য ব্যাখ্যাযোগ্য ভেরিয়েবল যুক্ত হয়।" এটা কেন?

1
বিভিন্ন আর চতুর্ভুজ প্রোগ্রামিং solvers মধ্যে পার্থক্য কি?
আমি কিছু চতুর্ভুজ অপ্টিমাইজেশান সমস্যা সমাধানে সহায়তা করার জন্য একটি প্যাকেজ সন্ধান করছি এবং আমি দেখছি কমপক্ষে অর্ধ ডজন বিভিন্ন প্যাকেজ রয়েছে। এই পৃষ্ঠা অনুসারে : কিউপি (চতুষ্কোণ প্রোগ্রামিং, 90C20): সিপ্লেক্সপিআই , কার্নলব , লিমসলভ , লোআরঙ্কিউকিপি , কোয়াডপ্রাগ , আরসিপ্লেক্স , রোমোসেক এর মধ্যে কয়েকটি (রোমোসেক এবং সিপ্লেক্সাপি) অন্যান্য …
9 r  optimization 

2
সাধারণ রৈখিক মডেলগুলির সাথে পরামিতি অনুমান
ডিফল্টরূপে যখন আমরা glmআর তে কোনও ফাংশন ব্যবহার করি , এটি পরামিতিগুলির সর্বাধিক সম্ভাবনার অনুমানের জন্য পুনরাবৃত্তভাবে স্বল্পতম স্কোয়ারগুলি (আইডাব্লুএলএস) পদ্ধতি ব্যবহার করে । এখন আমার দুটি প্রশ্ন আছে। আইডব্লুএলএসের অনুমানগুলি বিশ্বব্যাপী সর্বাধিক সম্ভাবনার কার্যটির গ্যারান্টি দেয়? এই উপস্থাপনাটির শেষ স্লাইডের ভিত্তিতে , আমার মনে হয় এটি হয় না! আমি …

2
আর-তে অপটিম ব্যবহার করে লগ-সম্ভাবনা ফাংশন সর্বাধিক করে অনুমানের জন্য প্যারামিটারগুলির জন্য প্রোফাইলিং ব্যবহার করে 95% আত্মবিশ্বাসের ব্যবধানগুলি কীভাবে অনুমান করতে পারি?
আর-তে অপটিম ব্যবহার করে লগ-সম্ভাবনা ফাংশন সর্বাধিক করে অনুমানের জন্য প্যারামিটারগুলির জন্য প্রোফাইলিং ব্যবহার করে 95% আত্মবিশ্বাসের ব্যবধানগুলি কীভাবে অনুমান করতে পারি? আমি জানি যে আমি হেসিয়ানকে উল্টিয়ে কোভেরিয়েন্স ম্যাট্রিক্সকে আশ্রয়হীনভাবে অনুমান করতে পারি , তবে আমি উদ্বিগ্ন যে এই তথ্যটি বৈধ হওয়ার জন্য আমার ডেটা প্রয়োজনীয় অনুমানগুলি পূরণ করে …

2
বিশ্বব্যাপী অপটিমাইজযোগ্য একটি ব্যয় ক্রিয়াকলাপ তৈরি করে কোনও সমস্যার কাছে যাওয়ার সুবিধা
এটি একটি সাধারণ প্রশ্ন (যেমন পরিসংখ্যানগুলির জন্য অগত্যা নির্দিষ্ট নয়) তবে আমি মেশিন লার্নিং এবং পরিসংখ্যানের সাহিত্যে এমন একটি প্রবণতা লক্ষ্য করেছি যেখানে লেখকরা নিম্নলিখিত পদ্ধতি অনুসরণ করতে পছন্দ করেন: পন্থা 1 : একটি বিশ্বকাপের সর্বোত্তম সমাধান (উদাহরণস্বরূপ উত্তল ব্যয়ের ক্রিয়াকলাপটি প্রণয়ন করে) কোনও ব্যয় নির্ধারণের মাধ্যমে (যেমন একটি গণনামূলক …

4
পরিসংখ্যানবিদদের জন্য সংখ্যাগত অপ্টিমাইজেশান সম্পর্কিত রেফারেন্স
আমি পরিসংখ্যানবিদদের লক্ষ্যতে সংখ্যাসূচক অপ্টিমাইজেশনের কৌশলগুলির উপর একটি সুনির্দিষ্ট রেফারেন্স (বা রেফারেন্স) সন্ধান করছি, অর্থাত্ এটি কিছু মানক আনুষ্ঠানিক সমস্যার ক্ষেত্রে এই পদ্ধতিগুলি প্রয়োগ করবে (যেমন সাধারণ মডেলগুলিতে এমএপি / এমএলই) LE গ্রেডিয়েন্ট বংশোদ্ভূত (স্ট্রেইট এবং স্টোচাস্টিক), ইএম এবং এর স্পিনফস / জেনারালাইজেশন, সিমুলেটেড অ্যানিলিং ইত্যাদি বিষয়গুলি আমি আশা করছি …

2
ডেটার জন্য আরওসি বক্ররেখার গণনা করুন
সুতরাং, আমার 16 টি ট্রায়াল রয়েছে যার মধ্যে আমি হামিং দূরত্ব ব্যবহার করে কোনও ব্যক্তিকে বায়োমেট্রিক বৈশিষ্ট্য থেকে প্রমাণীকরণের চেষ্টা করছি। আমার প্রান্তিকতা 3.5 এ সেট করা হয়েছে। আমার ডেটা নীচে রয়েছে এবং কেবল 1 টি পরীক্ষা সত্য পজিটিভ: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.