প্রশ্ন ট্যাগ «k-means»

k-মানে হ'ল ক্লাস্টারগুলিতে ডেটা ভাগ করার একটি পদ্ধতি যা নির্দিষ্ট সংখ্যক, k, st সন্ধান করে যখন ডেটা ক্লাস্টারগুলিতে ন্যূনতম হয় / নিকটতম গড়, ডাব্লু / আই ক্লাস্টারের যোগফলকে ছোট করা হয়

1
স্ট্যান্ডার্ড এবং গোলাকার কে-মানে অ্যালগরিদমের মধ্যে পার্থক্য
আমি বুঝতে চাই, স্ট্যান্ডার্ড এবং গোলাকার কে-মানে ক্লাস্টারিং অ্যালগরিদমের মধ্যে প্রধান বাস্তবায়ন পার্থক্য কী। প্রতিটি পদক্ষেপে, কে-মানে উপাদান ভেক্টর এবং ক্লাস্টার সেন্ট্রয়েডগুলির মধ্যে দূরত্বগুলি গণনা করে এবং এই ক্লাস্টারে নথিটি পুনরায় সাইন করে, যার সেন্ট্রয়েড সবচেয়ে নিকটতম। তারপরে, সমস্ত সেন্ট্রয়েডগুলি পুনরায় সংযুক্ত করা হয়। গোলাকৃতির কে-উপায়ে, সমস্ত ভেক্টরগুলি স্বাভাবিক করা …

2
ক্লাস্টারিংয়ে বাইনারি এবং অবিচ্ছিন্ন দুটি পরিবর্তনশীল একসাথে কীভাবে ব্যবহার করবেন?
আমাকে বাইনারি ভেরিয়েবল (মান 0 এবং 1) ব্যবহার করতে হবে) তবে কে-মানে কেবল অবিচ্ছিন্ন ভেরিয়েবলগুলির সাথে কাজ করে। আমি জানি কিছু লোক এখনও বাইনারি ভেরিয়েবলগুলি কে-মানে ব্যবহার করে যে-কে কেবলমাত্র অবিচ্ছিন্ন ভেরিয়েবলের জন্য ডিজাইন করা হয়েছে তা উপেক্ষা করে। এটি আমার কাছে অগ্রহণযোগ্য। প্রশ্নাবলী: তাহলে কে-মানে / হায়ারারিকাল ক্লাস্টারিংয়ে বাইনারি …

5
ক্লাস্টারিং পদ্ধতি যেখানে প্রতিটি ক্লাস্টারের সমান সংখ্যক পয়েন্ট থাকে?
আমি কিছু পয়েন্ট আছে মধ্যে , আর আমি যাতে পয়েন্ট ক্লাস্টারের করতে চাই:X={x1,...,xn}X={x1,...,xn}X=\{x_1,...,x_n\}RpRpR^p প্রতিটি ক্লাস্টারে এর সমান সংখ্যক উপাদান থাকে । (অনুমান ক্লাস্টার ভাগ সংখ্যা ।)XXXnnn প্রতিটি ক্লাস্টার মেনসের ক্লাস্টারগুলির মতো কিছুটা অর্থে "স্থানিকভাবে সমন্বিত" হয় ।kkk এগুলির মধ্যে একটি বা অন্যটিকে সন্তুষ্ট করে এমন অনেকগুলি ক্লাস্টারিং পদ্ধতি সম্পর্কে ভাবতে …

3
ডাটাবেস থেকে 1 ডি ডেটার বিভিন্ন ক্লাস্টার নির্ধারণ করুন
আমার কাছে বিভিন্ন নোডের মধ্যে ডেটা স্থানান্তরের একটি ডাটাবেস টেবিল রয়েছে। এটি একটি বিশাল ডাটাবেস (প্রায় ৪০ মিলিয়ন ট্রান্সফার সহ)। বৈশিষ্ট্যগুলির মধ্যে একটি হ'ল বাইট (এনবিটস) স্থানান্তর সংখ্যা যা 0 বাইট থেকে 2 টি টেরা বাইট পর্যন্ত হয়। আমি এনবিটিসকে যেমন ক্লাস্টার দিতে চাই যে কে ক্লাস্টার দিয়েছে কিছু এক্স …

8
কে-মানে (বা তার নিকটাত্মীয়) কেবলমাত্র একটি দূরত্বের ম্যাট্রিক্স দিয়ে ক্লাস্টারিং করুন, পয়েন্ট-বাই বৈশিষ্ট্যযুক্ত ডেটা নয়
আমি আমার থাকা বস্তুগুলিতে কে-মানে ক্লাস্টারিং করতে চাই, তবে বস্তুগুলিকে স্থানের বিন্দু হিসাবে বর্ণনা করা হয় না, যেমন objects x featuresডেটাসেট দ্বারা । যাইহোক, আমি যে কোনও দুটি বস্তুর মধ্যে দূরত্ব গণনা করতে সক্ষম (এটি একটি মিলের ফাংশনের উপর ভিত্তি করে)। সুতরাং, আমি দূরত্বের ম্যাট্রিক্স নিষ্পত্তি করি objects x objects। …

2
যদি কে-মানে ক্লাস্টারিং গাউসিয়ান মিশ্রণ মডেলিংয়ের একটি রূপ, ডেটা স্বাভাবিক না থাকে তখন কী এটি ব্যবহার করা যেতে পারে?
আমি GM GM এর জন্য ইএম অ্যালগরিদমের উপর বিশপ পড়ছি এবং জিএমএম এবং কে-অর্থের মধ্যে সম্পর্কের। এই বইতে এটি বলেছে যে কে-মানে জিএমএম এর একটি হার্ড অ্যাসাইন সংস্করণ। আমি ভাবছি কি এর দ্বারা বোঝা যায় যে আমি যে ডেটা ক্লাস্টার করার চেষ্টা করছি তা যদি গাউসিয়ান না হয় তবে আমি …

4
একটি পারস্পরিক সম্পর্কের ক্লাস্টারিং ম্যাট্রিক্স
আমার একটি পারস্পরিক সম্পর্ক ম্যাট্রিক্স রয়েছে যা প্রতিটি আইটেমকে অন্য আইটেমের সাথে কীভাবে সংযুক্ত করে তা উল্লেখ করে। সুতরাং কোনও এন আইটেমের জন্য আমার কাছে ইতিমধ্যে একটি এন * এন পারস্পরিক সম্পর্ক ম্যাট্রিক্স রয়েছে। এই পারস্পরিক সম্পর্কের ম্যাট্রিক্সটি ব্যবহার করে আমি কীভাবে এম বিনগুলিতে এন আইটেমগুলি ক্লাস্টার করব যাতে আমি …

2
কে-মানে রূপান্তরিত হওয়ার প্রমাণ
একটি কার্যভারের জন্য আমাকে একটি প্রমাণ প্রদান করতে বলা হয়েছে যে কে-মানে একটি সীমাবদ্ধ পদক্ষেপে রূপান্তর করে। এটি আমি লিখেছি: CCCE(C)=∑xmini=1k∥x−ci∥2E(C)=∑xmini=1k‖x−ci‖2E(C)=\sum_{\mathbf{x}}\min_{i=1}^{k}\left\Vert \mathbf{x}-\mathbf{c}_{i}\right\Vert ^{2}E(C)E(C)E(C) পদক্ষেপ 2 এমন পদক্ষেপকে নির্দেশ করে যা প্রতিটি নিকটবর্তী ক্লাস্টার কেন্দ্রের দ্বারা প্রতিটি ডেটা পয়েন্টকে লেবেল করে এবং পদক্ষেপ 3 হল এমন পদক্ষেপ যেখানে কেন্দ্রগুলি একটি গড় …

4
হায়ারারিকাল ক্লাস্টারিংয়ের ত্রুটিগুলি কীভাবে বোঝবেন?
কেউ কি হায়ারারিকাল ক্লাস্টারিংয়ের উপকারিতা এবং বিধিগুলি ব্যাখ্যা করতে পারেন? হায়ারার্কিকাল ক্লাস্টারিং এর কে যেমন বোঝাচ্ছে একই ত্রুটি রয়েছে? কে হায়ারারিকিকাল ক্লাস্টারিং এর সুবিধা কী? হায়ারারিকাল ক্লাস্টারিং ও তার বিপরীতে কখন আমাদের কে ব্যবহার করা উচিত? এই পোস্টের উত্তরগুলি কে এর ত্রুটিগুলি বোঝায় খুব ভাল। কে-উপায়গুলির ত্রুটিগুলি কীভাবে বোঝা যায়

3
কে-মানে ক্লাস্টার পার্টিশনের সবচেয়ে গুরুত্বপূর্ণ বৈশিষ্ট্যগুলির অনুমান করা
কে-মানে ক্লাস্টার সমাধানের মধ্যে ডেটাসেটের কোন বৈশিষ্ট্য / ভেরিয়েবলগুলি সবচেয়ে গুরুত্বপূর্ণ / প্রভাবশালী তা নির্ধারণ করার কোনও উপায় আছে?

3
কেন স্পেস স্ট্যাটিস্টিকস কেন-ই মানেগুলির একটি ক্লাস্টারের পরামর্শ দেয়, যদিও এর মধ্যে অবশ্যই দুটি আছে?
আমি আমার ডেটা ক্লাস্টার করতে কে-মানে ব্যবহার করছি এবং একটি "অনুকূল" ক্লাস্টার নম্বর প্রস্তাব করার উপায় খুঁজছিলাম। গ্যাপের পরিসংখ্যান মনে হয় একটি ভাল ক্লাস্টার নম্বর খুঁজতে একটি সাধারণ উপায়। কোনও কারণে এটি সর্বোত্তম ক্লাস্টার নম্বর হিসাবে 1 প্রদান করে, তবে আমি যখন ডেটা দেখি তখন স্পষ্ট হয় যে 2 টি …

3
দৃশ্যত বহু মাত্রিক ক্লাস্টার ডেটা প্লট করা
আমার কাছে 16 টি ভেরিয়েবলের সাথে একটি ডেটা সেট রয়েছে এবং কামেন দ্বারা ক্লাস্টার করার পরে, আমি দুটি গ্রুপ প্লট করতে চাই। দুটি প্লাস্টারটি দৃশ্যত উপস্থাপন করার জন্য আপনি কোন প্লটকে পরামর্শ দিচ্ছেন?

5
কেন-মানে বিশ্বকে সর্বনিম্ন ন্যূনতম দেয় না?
আমি পড়েছি যে কে-মানে অ্যালগরিদম কেবল স্থানীয় সর্বনিম্নে রূপান্তর করে বিশ্বব্যাপী সর্বনিম্নে নয়। কেন? আমি যৌক্তিকভাবে ভাবতে পারি যে কীভাবে সূচনাটি চূড়ান্ত ক্লাস্টারিংয়ের উপর প্রভাব ফেলতে পারে এবং উপ-সর্বোত্তম ক্লাস্টারিংয়ের সম্ভাবনা রয়েছে, তবে আমি এমন কিছু পাইনি যা গাণিতিকভাবে এটি প্রমাণ করবে। এছাড়াও, কেন-কেন একটি পুনরাবৃত্তি প্রক্রিয়া? আমরা কেবল সেন্ট্রয়েডগুলিতে …

4
পুনরাবৃত্তির সংখ্যা বাড়ার সাথে সাথে গ্রেডিয়েন্ট বুস্টিং মেশিনের নির্ভুলতা হ্রাস পায়
আমি এর মাধ্যমে গ্রেডিয়েন্ট বুস্টিং মেশিন অ্যালগরিদম নিয়ে পরীক্ষা করছি caret আর। প্যাকেজটির ing একটি ছোট কলেজ ভর্তি ডেটাসেট ব্যবহার করে, আমি নিম্নলিখিত কোডটি চালিয়েছি: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

1
মাত্রিকতা অভিশাপগুলি কিছু মডেলকে অন্যের চেয়ে বেশি প্রভাবিত করে?
আমি মাত্রাগুলি অভিশাপ সম্পর্কে যে জায়গাগুলি পড়ছি সেগুলি প্রাথমিকভাবে কেএনএন এবং সাধারণভাবে রৈখিক মডেলগুলির সাথে একত্রে এটি ব্যাখ্যা করে। আমি নিয়মিত ক্যাগলে শীর্ষস্থানীয় র‌্যাটার্সকে ডেটাসেটে এমন হাজার হাজার বৈশিষ্ট্য ব্যবহার করে দেখি যা খুব কমই 100 কে ডেটা পয়েন্ট থাকে। এগুলি সাধারণত অন্যদের মধ্যে বুস্টেড গাছ এবং এনএন ব্যবহার করে। …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.