প্রশ্ন ট্যাগ «pac-learning»

পিএসি সম্ভবত প্রায় সঠিক শিক্ষণীয়

20
দুটি সংস্কৃতি: পরিসংখ্যান বনাম মেশিন লার্নিং?
গত বছর আমি "স্ট্যাটিস্টিক্স বনাম মেশিন লার্নিং, ফাইট!" শিরোনামে ব্রেন্ডন ও'কনর থেকে একটি ব্লগ পোস্ট পড়েছিলাম ! যে দুটি ক্ষেত্রের মধ্যে কিছু পার্থক্য আলোচনা। এন্ড্রু গেলম্যান এর পক্ষে অনুকূল প্রতিক্রিয়া জানিয়েছিলেন : সাইমন ব্লুমবার্গ: আর এর ভাগ্য প্যাকেজ থেকে: উস্কানিমূলকভাবে প্যারাফ্রেজ করতে, 'মেশিন লার্নিং হ'ল পরিসংখ্যানকে কোনও মডেল এবং অনুমানের …

3
'দুর্বল শিক্ষার্থী' বলতে কী বোঝায়?
'দুর্বল শিক্ষানবিশ' শব্দটির অর্থ কি কেউ আমাকে বলতে পারেন? এটি কি একটি দুর্বল অনুমান বলে মনে করা হচ্ছে? দুর্বল শিক্ষানবিশ এবং দুর্বল শ্রেণিবদ্ধের মধ্যে সম্পর্ক সম্পর্কে আমি বিভ্রান্ত। দুটোই কি এক রকম নাকি কিছু পার্থক্য আছে? অ্যাডাবোস্ট আলগোরিদিমে T=10,। এর অর্থ কী? আমরা কেন নির্বাচন করব T=10?

4
গণিতবিদদের জন্য মেশিন লার্নিংয়ের পরিচিতি
কিছুটা অর্থে এটি গণিত.স্ট্যাকেক্সচেঞ্জের আমার একটি ক্রসপোস্ট এবং আমার অনুভূতি আছে যে এই সাইটটি একটি বিস্তৃত শ্রোতা সরবরাহ করতে পারে। আমি মেশিন লার্নিংয়ের গাণিতিক পরিচিতির সন্ধান করছি। বিশেষত, প্রচুর সাহিত্যের সন্ধান পাওয়া যায় যে তুলনামূলকভাবে অনর্থক এবং প্রচুর পৃষ্ঠাগুলি কোনও সামগ্রী ছাড়াই ব্যয় করা হয়। যাইহোক, এই জাতীয় সাহিত্য থেকে …

6
প্যারামিটারগুলি অনুমানের জন্য মেশিন লার্নিংয়ের 'মৌলিক' ধারণা কী?
প্যারামিটারগুলি অনুমানের জন্য পরিসংখ্যানগুলির 'মৌলিক' ধারণাটি সর্বাধিক সম্ভাবনা । আমি ভাবছি মেশিন লার্নিংয়ে সম্পর্কিত ধারণাটি কী? কিউন ১। এটা বলা কি ন্যায়সঙ্গত হবে যে প্যারামিটারগুলি অনুমানের জন্য মেশিন লার্নিংয়ের 'মৌলিক' ধারণাটি হ'ল: 'লোকসান ফাংশন' [দ্রষ্টব্য: এটি আমার ধারণা যে মেশিন লার্নিং অ্যালগরিদমগুলি প্রায়শই একটি ক্ষতির ফাংশন অনুকূল করে এবং তাই …

1
আমরা কেন ধরে নিই যে ত্রুটিটি সাধারণত বিতরণ করা হয়?
আমি ভাবছি ত্রুটির মডেলিং করার সময় আমরা কেন গাউসি অনুমানটি ব্যবহার করি। ইন স্ট্যানফোর্ড এর এমএল অবশ্যই , প্রফেসর ড এনজি এটি মূলত বর্ণনা দুই বিনয় মধ্যে: এটি গাণিতিকভাবে সুবিধাজনক। (এটি সর্বনিম্ন স্কোয়ারগুলির সাথে সম্পর্কিত এবং সিউডোয়েন্টার সহ সমাধান করা সহজ) কেন্দ্রীয় সীমাবদ্ধ তত্ত্বের কারণে, আমরা ধরে নিতে পারি যে …

2
নিউরাল নেটওয়ার্কগুলির জটিলতা পরিমাপের জন্য ভিসি-মাত্রার বিকল্পগুলি কী কী?
নিউরাল নেটওয়ার্কগুলির জটিলতা পরিমাপ করার জন্য আমি কয়েকটি প্রাথমিক উপায়টি পেয়েছি: নিষ্পাপ এবং অনানুষ্ঠানিক: নিউরন, লুকানো নিউরন, স্তর বা লুকানো স্তরগুলির সংখ্যা গণনা করুন ভিসি-মাত্রা (এডুয়ার্ডো ডি সন্টাগ [1998] "নিউরাল নেটওয়ার্কগুলির ভিসি মাত্রা" [ পিডিএফ ]।) টি সি 0 ডি এর সমতুল্য হয়েTC0dTCd0TC^0_d একটি কোর্স গ্রেড এবং অ্যাসিম্পটোটিক কম্পিউটেশনাল জটিলতা …

2
পিএসি শেখার তত্ত্ব বলতে কী বোঝায়?
আমি মেশিন লার্নিংয়ে নতুন। আমি মেশিন লার্নিংয়ের একটি কোর্স অধ্যয়ন করছি (স্ট্যানফোর্ড বিশ্ববিদ্যালয়) এবং আমি বুঝতে পারি না যে এই তত্ত্বটি কী বোঝায় এবং এর ইউটিলিটি কী। আমি ভাবছি যদি কেউ আমার জন্য এই তত্ত্বটি বিশদ করতে পারে। এই তত্ত্বটি এই সমীকরণের উপর ভিত্তি করে।

1
জটিল বিশ্লেষণ, গভীর বোঝার জন্য মেশিন লার্নিংয়ের কার্যকরী বিশ্লেষণ
আমি মেশিন লার্নিংয়ের (গভীরে তত্ত্ব এবং প্রয়োগের) আরও গভীর হতে চাই। আমি জানতে চাই মেশিন লার্নিংয়ের ভিত্তি হিসাবে জটিল বিশ্লেষণ এবং কার্যকরী বিশ্লেষণ কতটা প্রাসঙ্গিক ? আমার কি এই বিষয়গুলি শেখার দরকার আছে বা অন্য বিষয়গুলিতে নিজেকে কেন্দ্রীভূত করা উচিত (যদি তাই হয় তবে কোনটি?)

2
ডেটার জন্য আরওসি বক্ররেখার গণনা করুন
সুতরাং, আমার 16 টি ট্রায়াল রয়েছে যার মধ্যে আমি হামিং দূরত্ব ব্যবহার করে কোনও ব্যক্তিকে বায়োমেট্রিক বৈশিষ্ট্য থেকে প্রমাণীকরণের চেষ্টা করছি। আমার প্রান্তিকতা 3.5 এ সেট করা হয়েছে। আমার ডেটা নীচে রয়েছে এবং কেবল 1 টি পরীক্ষা সত্য পজিটিভ: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.