প্রশ্ন ট্যাগ «kernel-trick»

অরৈখিক পরিস্থিতিতে বিশেষত এসভিএম, পিসিএ এবং জিপি-র ক্ষেত্রে রৈখিক কৌশলগুলিকে সাধারণীকরণের জন্য কার্নেল পদ্ধতিগুলি মেশিন লার্নিংয়ে ব্যবহৃত হয়। কার্নেল ঘনত্বের অনুমান (কেডিএ) এবং কার্নেল রিগ্রেশন জন্য [কার্নেল-স্মুথিং] এর সাথে বিভ্রান্ত হওয়ার দরকার নেই।


1
সমর্থন ভেক্টরের সংখ্যা এবং বৈশিষ্ট্যগুলির সংখ্যার মধ্যে সম্পর্ক
আমি একটি প্রদত্ত ডেটা সেটের বিপরীতে একটি এসভিএম চালিয়েছি এবং নিম্নলিখিত পর্যবেক্ষণ করেছি: যদি আমি শ্রেণিবদ্ধকারী তৈরির জন্য বৈশিষ্ট্যগুলির সংখ্যা পরিবর্তন করি তবে ফলাফল হিসাবে সমর্থিত ভেক্টরের সংখ্যাও পরিবর্তন করা হবে। আমি এই জাতীয় দৃশ্যের ব্যাখ্যা কীভাবে জানতে চাই।

1
কার্নেলাইজড কে নিকটবর্তী নিকটবর্তী
আমি কার্নেলগুলিতে নতুন এবং কার্নেলাইজ কেএনএন করার চেষ্টা করার সময় একটি ছিনতাই করেছি। preliminaries আমি একটি বহুবর্ষীয় কার্নেল ব্যবহার করছি: K( x , y )=(1+)⟨x,y⟩)dK(x,y)=(1+⟨x,Y⟩)ঘK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d আপনার সাধারণ ইউক্লিডিয়ান কেএনএন নীচের দূরত্বের মেট্রিক ব্যবহার করে: ঘ( x , y ) = | | x - …

5
কীভাবে কোনও গাউসিয়ান কার্নেলকে নাম্পি [বন্ধ] কার্যকরভাবে গণনা করতে হবে
বন্ধ থাকে। এই প্রশ্নটি অফ-টপিক । এটি বর্তমানে উত্তর গ্রহণ করছে না। এই প্রশ্নটি উন্নত করতে চান? প্রশ্নটি আপডেট করুন যাতে এটি ক্রস ভ্যালিডেটের জন্য অন-বিষয় । 3 বছর আগে বন্ধ । আমার কাছে এম কলাম এবং এন সারি, একটি কলাম স্তরের মাত্রা এবং সারিগুলির ডেটাপয়েন্ট রয়েছে তার সাথে একটি …

1
কার্নেল আনুমানিককরণের জন্য Nystroem পদ্ধতি
আমি নিম্ন র‌্যাঙ্কের কার্নেল এপ্রোক্সিমেশনের জন্য Nyström পদ্ধতি সম্পর্কে পড়ছি। এই পদ্ধতিটি সাইকিট-লার্নে প্রয়োগ করা হয়েছে [1] কার্নেল বৈশিষ্ট্য ম্যাপিংয়ের নিম্ন-স্তরের প্রাক্কলনে ডেটা নমুনাগুলি প্রজেক্ট করার পদ্ধতি হিসাবে। আমার জ্ঞানের সেরা হিসাবে, একটি প্রশিক্ষণ সেট given এবং একটি কার্নেল ফাংশন দেওয়া হয়েছে, এটি এসভিডি প্রয়োগ করে একটি কার্নেল ম্যাট্রিক্স একটি …

2
মার্সারের উপপাদ্য কি বিপরীতে কাজ করে?
একজন সহকর্মী একটি ফাংশন আছে এবং আমাদের উদ্দেশ্যে এটি একটি কালো-বাক্স। ফাংশন দুটি বস্তুর সাদৃশ্য পরিমাপ করে ।ssss(a,b)s(a,b)s(a,b) আমরা নিশ্চিতভাবে জানি যে এই বৈশিষ্ট্যগুলি রয়েছে:sss মিলের স্কোরগুলি 0 এবং 1 এর মধ্যে বাস্তব সংখ্যা are কেবল স্ব-অভিন্নরূপে থাকা সামগ্রীর স্কোর ১. সুতরাং বোঝায় এবং বিপরীত।s(a,b)=1s(a,b)=1s(a,b)=1a=ba=ba=b আমরা গ্যারান্টিযুক্ত যে ।s(a,b)=s(b,a)s(a,b)=s(b,a)s(a,b) = …

1
সমর্থন ভেক্টর মেশিন বৈশিষ্ট্যের মধ্যে পারস্পরিক সম্পর্কের সংবেদনশীল?
আমি 20 টি বৈশিষ্ট্যের উপর ভিত্তি করে কেস (সত্য / মিথ্যা) শ্রেণিবদ্ধ করতে একটি এসভিএমকে প্রশিক্ষণ দিতে চাই। আমি জানি যে এর মধ্যে কয়েকটি বৈশিষ্ট্য অত্যন্ত সংযুক্ত রয়েছে। সুতরাং আমার প্রশ্নটি হ'ল: এসভিএম বৈশিষ্ট্যগুলির মধ্যে পারস্পরিক সম্পর্ক বা অযৌক্তিকতার জন্য সংবেদনশীল? কোন রেফারেন্স?

1
কার্নেল রিজ রিগ্রেশন দক্ষতা
রিজ রিগ্রেশন যেমন প্রকাশ করা যেতে পারে যেখানে হয় পূর্বাভাস ট্যাগ , , ম্যাট্রিক্স চিহ্নিত বস্তু আমরা জন্য একটি লেবেল খুঁজে বের করার চেষ্টা করছি, এবং ম্যাট্রিক্স বস্তু :y^=(X′X+aId)−1Xxy^=(X′X+aId)−1Xx\hat{y} = (\mathbf{X'X} + a\mathbf{I}_d)^{-1}\mathbf{X}xy^y^\hat{y}IdId\mathbf{I}_dd×dd×dd \times dxx\mathbf{x}XX\mathbf{X}n×dn×dn \times dnnnxi=(xi,1,...,xi,d)∈Rdxi=(xi,1,...,xi,d)∈Rd\mathbf{x}_i = (x_{i,1}, ..., x_{i,d})\in \mathbb{R}^d X=⎛⎝⎜⎜⎜⎜⎜x1,1x2,1⋮xn,1x1,2x2,2⋮x1,2……⋱…x1,dx2,d⋮xn,d⎞⎠⎟⎟⎟⎟⎟X=(x1,1x1,2…x1,dx2,1x2,2…x2,d⋮⋮⋱⋮xn,1x1,2…xn,ঘ) \mathbf{X} = \begin{pmatrix} x_{1,1} & x_{1,2} & …

1
কিভাবে একটি সাধারণ পার্সেপট্রন কার্নেলাইজ করবেন?
ননলাইনার সীমানা সহ শ্রেণিবদ্ধকরণের সমস্যাগুলি সাধারণ পার্সেপট্রন দ্বারা সমাধান করা যায় না । নিম্নলিখিত আর কোডটি চিত্রণমূলক উদ্দেশ্যে এবং পাইথনের এই উদাহরণের উপর ভিত্তি করে ): nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, byrow=T) …

1
গ্রাফ কার্নেল এসভিএম হাইপারপ্যারামিটারগুলি টিউন করার জন্য কোন পদ্ধতি বিদ্যমান?
আমার কিছু তথ্য রয়েছে যা গ্রাফ । দুটি ক্লাসের মধ্যে , একটির অন্তর্ভুক্ত , এবং আমি দুটি শ্রেণীর মধ্যে পার্থক্য করার জন্য একটি এসভিএম প্রশিক্ষণ দিতে আগ্রহী। এর একটি উপযুক্ত কার্নেল হল আশ্লেষ কার্নেল , যেখানে হয় Laplacian এর এবং একটি টিউনিং প্যারামিটার।y আমি ∈ { - 1 , 1 …

1
ফিশার কার্নেলগুলি ছাড়িয়ে
কিছুক্ষণের জন্য, মনে হয়েছিল যে ফিশার কার্নেলগুলি সম্ভবত জনপ্রিয় হতে পারে, কারণ তারা সম্ভবত সম্ভাব্য মডেলগুলি থেকে কার্নেলগুলি নির্মাণ করার একটি উপায় বলে মনে হয়েছিল। যাইহোক, আমি এগুলিকে ব্যবহারের ক্ষেত্রে খুব কমই দেখেছি, এবং আমার এটি ভাল কর্তৃত্বের উপর রয়েছে যে তারা খুব ভালভাবে কাজ করতে চান না। তারা ফিশার …

2
কোন কার্নেল পদ্ধতিটি সর্বোত্তম সম্ভাবনার ফলাফল দেয়?
সম্প্রতি আমি ডিফল্ট-ইভেন্টগুলির সম্ভাবনাগুলি অনুমান করার জন্য প্লাটের এসভিএম-আউটপুটগুলির স্কেলিং ব্যবহার করেছি। আরও সরাসরি বিকল্পগুলি "কার্নেল লজিস্টিক রিগ্রেশন" (কেএলআর) এবং সম্পর্কিত "ইম্পোর্ট ভেক্টর মেশিন" বলে মনে হচ্ছে। সম্ভাব্যতা আউটপুট দেওয়ার জন্য কার্নেল পদ্ধতিটি বর্তমানে শিল্পের অবস্থা বলে কেউ কি বলতে পারে? কেএলআর-এর কোনও আর-বাস্তবায়ন কি বিদ্যমান? আপনার সাহায্যের জন্য আপনাকে …

1
কীভাবে এসভিএমস = টেমপ্লেট মিলছে?
আমি এসভিএম সম্পর্কে পড়েছি এবং শিখেছি যে তারা একটি অপ্টিমাইজেশান সমস্যা সমাধান করছে এবং সর্বাধিক মার্জিন ধারণাটি খুব যুক্তিসঙ্গত ছিল। এখন, কার্নেলগুলি ব্যবহার করে তারা এমনকি অ-রৈখিক বিভাজন সীমানাও খুঁজে পেতে পারে যা দুর্দান্ত ছিল। এখনও অবধি, আমার কী ধারণা নেই যে এসভিএম (একটি বিশেষ কার্নেল মেশিন) এবং কার্নেল মেশিনগুলি …

1
কার্নেল পদ্ধতিগুলির সীমাবদ্ধতাগুলি কী এবং কখন কার্নেল পদ্ধতি ব্যবহার করা উচিত?
তত্ত্বাবধানের পদ্ধতিগুলি অনেক তত্ত্বাবধানে শ্রেণিবদ্ধকরণ কার্যগুলিতে খুব কার্যকর। সুতরাং কার্নেল পদ্ধতিগুলির সীমাবদ্ধতাগুলি কী এবং কখন কার্নেল পদ্ধতি ব্যবহার করা উচিত? বিশেষত বৃহত আকারের ডেটা যুগে কার্নেল পদ্ধতির অগ্রগতি কী? কার্নেল পদ্ধতি এবং একাধিক উদাহরণ শেখার মধ্যে পার্থক্য কী? যদি ডেটা হয় 500x10000, 500নমুনাগুলির গণনা 10000কি এবং প্রতিটি বৈশিষ্ট্যের মাত্রা হয়, …

1
আর লিনিয়ার রিগ্রেশন শ্রেণিবদ্ধ পরিবর্তনশীল "লুকানো" মান
এটি কেবলমাত্র একটি উদাহরণ যা আমি বেশ কয়েকবার এসেছি, সুতরাং আমার কোনও নমুনা ডেটা নেই। আরে লিনিয়ার রিগ্রেশন মডেল চালাচ্ছেন: a.lm = lm(Y ~ x1 + x2) x1একটি অবিচ্ছিন্ন পরিবর্তনশীল। x2শ্রেণীবদ্ধ এবং এর তিনটি মান রয়েছে যেমন "নিম্ন", "মাঝারি" এবং "উচ্চ"। তবে আর দ্বারা প্রদত্ত আউটপুটটি এরকম কিছু হবে: summary(a.lm) …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.