প্রশ্ন ট্যাগ «k-means»

k-মানে হ'ল ক্লাস্টারগুলিতে ডেটা ভাগ করার একটি পদ্ধতি যা নির্দিষ্ট সংখ্যক, k, st সন্ধান করে যখন ডেটা ক্লাস্টারগুলিতে ন্যূনতম হয় / নিকটতম গড়, ডাব্লু / আই ক্লাস্টারের যোগফলকে ছোট করা হয়

5
কে-উপায়গুলির ত্রুটিগুলি কীভাবে বোঝা যায়
ক্লাস্টার বিশ্লেষণে কে-মানে একটি বহুল ব্যবহৃত পদ্ধতি। আমার বোধগম্যতার জন্য, এই পদ্ধতিটির জন্য কোনও অনুমানের প্রয়োজন হয় না, অর্থাত্ আমাকে একটি ডেটাসেট এবং একটি নির্দিষ্ট নির্দিষ্ট ক্লাস্টার, কে প্রদান করুন এবং আমি কেবল এই অ্যালগরিদম প্রয়োগ করি যা ক্লাস্টারের স্কোয়ারের মধ্যে স্কোয়ার ত্রুটির যোগফলকে কমিয়ে দেয় (এসএসই) the ত্রুটি। সুতরাং …

5
কে-মানে এবং কে-নিকটতম প্রতিবেশীদের মধ্যে প্রধান পার্থক্যগুলি কী?
আমি জানি যে কে-উপায়গুলি নিরীক্ষণযোগ্য এবং এটি ক্লাস্টারিং ইত্যাদির জন্য ব্যবহৃত হয় এবং কে-এনএন তদারকি করা হয়। তবে আমি জানতে চেয়েছিলাম দুজনের মধ্যে কড়া পার্থক্য?

6
কীভাবে বলতে হবে যে ডেটাগুলি "ক্লাস্টারড" যথেষ্ট পরিমাণে ক্লাস্টারিং অ্যালগরিদমগুলিকে অর্থবহ ফলাফল দেওয়ার জন্য রয়েছে?
আপনি কীভাবে জানবেন যে আপনার (উচ্চ মাত্রিক) ডেটা যথেষ্ট পরিমাণে ক্লাস্টারিং প্রদর্শন করে যাতে কমিয়ান বা অন্যান্য ক্লাস্টারিং অ্যালগরিদম থেকে প্রাপ্ত ফলাফলগুলি আসলে অর্থবহ হয়? বিশেষত কে-মানে অ্যালগরিদমের জন্য, প্রকৃতির ক্লাস্টারিংয়ের ফলাফলগুলি অর্থবহ (এবং উদ্দীপক নয়) হওয়ার জন্য-ক্লাস্টারের বৈকল্পিকতার মধ্যে হ্রাসের পরিমাণ কত হওয়া উচিত? যখন ক্লাস্টারিংটি ভিজ্যুয়ালাইজ করা যায় …

3
কে-মানে ক্লাস্টার বিশ্লেষণের ফলাফলগুলির একটি সুন্দর প্লট কীভাবে উত্পাদন করা যায়?
আমি আর-কে ক্লাস্টারিং-এর জন্য ব্যবহার করছি। আমি কে-মানে চালাতে 14 ভেরিয়েবল ব্যবহার করছি কে-মানে ফলাফলগুলি প্লট করার একটি দুর্দান্ত উপায় কী? কোন বাস্তবায়ন আছে কি? 14 ভেরিয়েবল থাকা ফলাফল কীভাবে জটিল করে তোলে? আমি জিজি ক্লাসটার নামে কিছু পেয়েছি যা দেখতে দুর্দান্ত দেখাচ্ছে তবে এটি এখনও বিকাশে রয়েছে। আমি সামন …

6
টি-এসএনইয়ের আউটপুটটিতে ক্লাস্টারিং
আমি একটি অ্যাপ্লিকেশন পেয়েছি যেখানে ক্লাস্টারগুলির মধ্যে উপগোষ্ঠী প্রভাবগুলি সন্ধান করার আগে এটি একটি গোলমাল ডেটাसेट ক্লাস্টার করা সহজ হবে। আমি প্রথমে পিসিএর দিকে নজর দিয়েছি, তবে 90% পরিবর্তনশীলতা পেতে 30 ডলার উপাদান লাগে, সুতরাং পিসির মাত্র দু'একজনকে ক্লাস্টিং করা অনেক তথ্য ফেলে দেয়। আমি তখন টি-এসএনই (প্রথমবারের জন্য) চেষ্টা …

6
কেন-অর্থ ক্লাস্টারিং অ্যালগরিদম কেবল ইউক্লিডিয়ান দূরত্বের মেট্রিক ব্যবহার করে?
দক্ষতা বা কার্যকারিতার দিক দিয়ে কি কোনও নির্দিষ্ট উদ্দেশ্য আছে কেন কেন-মানে অ্যালগরিদম উদাহরণস্বরূপ কোসাইন (ডিস) দূরত্বের মেট্রিক হিসাবে মিল ব্যবহার করে না, তবে কেবল ইউক্লিডিয়ান আদর্শ ব্যবহার করতে পারে? সাধারণভাবে, ইউক্লিডিয়ান ছাড়া অন্য দূরত্বগুলি বিবেচনা করা বা ব্যবহৃত হলে কে-মানে পদ্ধতিটি মেনে চলবে এবং সঠিক হবে? [@Ttnphns দ্বারা সংযোজন …

5
কে-মানে ক্লাস্টারিং এবং পিসিএর মধ্যে কী সম্পর্ক?
ক্লাস্টারিং অ্যালগরিদমের (যেমন কে-মানে) আগে পিসিএ (মূল উপাদান বিশ্লেষণ) প্রয়োগ করা একটি সাধারণ অনুশীলন। এটি বিশ্বাস করা হয় যে এটি অনুশীলন (শব্দ হ্রাস) এর ক্লাস্টারিং ফলাফলগুলিতে উন্নতি করে। তবে আমি পিসিএ এবং কে-মাধ্যমের মধ্যে সম্পর্কের তুলনামূলক এবং গভীর গভীর অধ্যয়নে আগ্রহী। উদাহরণস্বরূপ, ক্রিস ডিং এবং জিয়াওফেং তিনি, 2004, কে-মানে ক্লাস্টারিংয়ের …

10
ক্লাস্টারের সঠিক সংখ্যা সম্পর্কে কীভাবে সিদ্ধান্ত নেবেন?
আমরা ক্লাস্টার কেন্দ্রগুলি খুঁজে পাই এবং কে-মানে ক্লাস্টারিংয়ে কে বিভিন্ন ক্লাস্টার বিনগুলিতে পয়েন্টগুলি অর্পণ করি যা একটি খুব সুপরিচিত অ্যালগরিদম এবং নেটটিতে প্রায় প্রতিটি মেশিন লার্নিং প্যাকেজে পাওয়া যায়। তবে আমার মতে অনুপস্থিত এবং সবচেয়ে গুরুত্বপূর্ণ অংশটি হ'ল একটি সঠিক কে। এটির জন্য সর্বোত্তম মান কী? এবং, সর্বোত্তম বলতে কী …

3
কে-মিনস এবং ইএম এর সাথে ক্লাস্টারিং: এগুলি কীভাবে সম্পর্কিত?
আমি ক্লাস্টারিং ডেটার জন্য অ্যালগরিদমগুলি অধ্যয়ন করেছি (নিরীক্ষণযোগ্য শিক্ষণ): ইএম এবং কে-মানে। আমি নিম্নলিখিত পড়তে থাকি: ক্লোস্টারগুলি গোলাকার বলে অনুমান করে কে-মানে ইএম এর একটি বৈকল্পিক। কেউ কি উপরের বাক্যটি ব্যাখ্যা করতে পারেন? গোলাকৃতির অর্থ কী, এবং কীমান এবং ইএম কীভাবে সম্পর্কিত তা আমি বুঝতে পারি না, যেহেতু একটি সম্ভাব্য …


5
ক্লাস্টারিংয়ের আগে ডেটা স্কেল করা কি গুরুত্বপূর্ণ?
আমি এই টিউটোরিয়ালটি পেয়েছি , যা পরামর্শ দেয় যে ক্লাস্টারিংয়ের আগে বৈশিষ্ট্যগুলিতে আপনার স্কেল ফাংশনটি চালানো উচিত (আমি বিশ্বাস করি যে এটি ডেটা জেড-স্কোরগুলিতে রূপান্তর করে)। আমি ভাবছি যে এটি প্রয়োজনীয় কিনা। আমি বেশিরভাগই জিজ্ঞাসা করছি কারণ আমি যখন ডেটা স্কেল করি না তখন একটি দুর্দান্ত কনুই পয়েন্ট থাকে তবে …

5
উভয় পৃথক এবং অবিচ্ছিন্ন ভেরিয়েবল সহ একটি ডেটাসেট ক্লাস্টারিং
আমার একটি ডেটাসেট এক্স রয়েছে যার 10 টি মাত্রা রয়েছে যার মধ্যে 4 টি আলাদা মান। আসলে, এই 4 টি পৃথক ভেরিয়েবলগুলি অর্ডিনাল, অর্থাত্ একটি উচ্চতর মান উচ্চতর / আরও ভাল শব্দার্থ বোঝায়। এই পৃথক ভেরিয়েবলগুলির মধ্যে 2 এই অর্থে শ্রেণিবদ্ধ যে এই প্রতিটি পরিবর্তকের জন্য, 11 থেকে 12 পর্যন্ত …

1
কীভাবে পিসিএ একটি কে-ক্লাস্টারিং বিশ্লেষণে সহায়তা করবে?
পটভূমি : আমি আবাসিক ইউনিট ঘনত্ব, জনসংখ্যার ঘনত্ব, সবুজ স্থানের অঞ্চল, আবাসনের মূল্য, স্কুল / স্বাস্থ্যকেন্দ্র / ডে কেয়ার সেন্টার ইত্যাদিসহ একটি শহরের আবাসিক অঞ্চলগুলিকে তাদের সামাজিক-অর্থনৈতিক বৈশিষ্ট্যের ভিত্তিতে গোষ্ঠীতে শ্রেণিবদ্ধ করতে চাই etc. আমি বুঝতে চাই আবাসিক অঞ্চলগুলিকে কয়টি পৃথক দলে ভাগ করা যায় এবং তাদের অনন্য বৈশিষ্ট্যগুলি কী। …

3
সাম্য গ্রুপে স্ট্রিংগুলির একটি দীর্ঘ তালিকা (শব্দ) ক্লাস্টারিং
আমার হাতে নিচের সমস্যাটি রয়েছে: আমার কাছে শব্দের একটি খুব দীর্ঘ তালিকা রয়েছে, সম্ভবত নাম, উপাধি ইত্যাদি রয়েছে আমার এই শব্দ তালিকার ক্লাস্টার করা দরকার, অনুরূপ শব্দগুলি উদাহরণস্বরূপ অনুরূপ সম্পাদনা (লেভেনস্টাইন) দূরত্বযুক্ত শব্দগুলির মধ্যে প্রদর্শিত হয় একই ক্লাস্টার উদাহরণস্বরূপ "অ্যালগরিদম" এবং "অ্যালগরিদম" একই ক্লাস্টারে উপস্থিত হওয়ার উচ্চ সম্ভাবনা থাকা উচিত। …

5
মেশিন লার্নিংয়ের শ্রেণিবদ্ধ / নেস্টেড ডেটা কীভাবে মোকাবেলা করবেন
আমি আমার সমস্যাটি একটি উদাহরণ দিয়ে ব্যাখ্যা করব। ধরুন আপনি কোনও ব্যক্তির আয়ের ভবিষ্যদ্বাণী করতে চান এমন কয়েকটি বৈশিষ্ট্য দেওয়া হয়েছে: {বয়স, লিঙ্গ, দেশ, অঞ্চল, শহর} আপনার মতো প্রশিক্ষণ ডেটাসেট রয়েছে train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.