আর-তে কোলমোগোরভ-স্মারনভ পরীক্ষা বোঝা


17

আমি কোলমোগোরভ-স্মারনভ পরীক্ষার ফাংশন (দুটি নমুনা, দ্বিমুখী) বোঝার চেষ্টা করছি। এখানে একটি সহজ পরীক্ষা।

x <- c(1,2,2,3,3,3,3,4,5,6)
y <- c(2,3,4,5,5,6,6,6,6,7)
z <- c(12,13,14,15,15,16,16,16,16,17)

ks.test(x,y)

#   Two-sample Kolmogorov-Smirnov test
#
#data:  x and y
#D = 0.5, p-value = 0.1641
#alternative hypothesis: two-sided
#
#Warning message:
#In ks.test(x, y) : cannot compute exact p-value with ties

ks.test(x,z)

#Two-sample Kolmogorov-Smirnov test

#data:  x and z
#D = 1, p-value = 9.08e-05
#alternative hypothesis: two-sided
#
#Warning message:
#In ks.test(x, z) : cannot compute exact p-value with ties


ks.test(x,x)

#Two-sample Kolmogorov-Smirnov test

#data:  x and x
#D = 0, p-value = 1
#alternative hypothesis: two-sided
#
#Warning message:
#In ks.test(x, x) : cannot compute exact p-value with ties

এখানে কয়েকটি জিনিস আমি বুঝতে পারি না।

  1. থেকে সাহায্যের , মনে হয় যে পি-মান অনুমান বোঝায় var1=var2। তবে, এখানে এর অর্থ এই হবে যে পরীক্ষাটি বলে ( p<0.05):

    ক। তা বলতে পারি না X = Y;

    খ। বলতে পারেন যে X = Z;

    গ। বলতে পারি না X = X(!)

এই এক্সটি নিজেকে (!) থেকে পৃথক করার পাশাপাশি এটি আমার কাছেও বেশ আশ্চর্যের বিষয় যে x=zদুটি বিতরণের শূন্য ওভারল্যাপিং সমর্থন রয়েছে। কীভাবে সম্ভব?

  1. পরীক্ষার সংজ্ঞা অনুযায়ী, Dদুই সম্ভাবনা ডিস্ট্রিবিউশন মধ্যে সর্বোচ্চ পার্থক্য হওয়া উচিত, কিন্তু ক্ষেত্রে উদাহরণস্বরূপ (x,y)এটি হওয়া উচিত D = Max|P(x)-P(y)| = 4(কেস যখন P(x), P(y)স্বাভাবিক নেই) অথবা D=0.3 (যদি তারা স্বাভাবিক হয়)। ডি এর থেকে আলাদা কেন?

  2. আমি ইচ্ছাকৃতভাবে অনেকগুলি বন্ধনের সাথে একটি উদাহরণ তৈরি করেছি , যেহেতু আমি যে ডেটা নিয়ে কাজ করছি তাতে প্রচুর অভিন্ন মান রয়েছে। কেন এই পরীক্ষা বিভ্রান্ত? আমি ভেবেছিলাম এটি একটি সম্ভাব্যতা বিতরণ গণনা করেছে যা বারবার মান দ্বারা প্রভাবিত হবে না। কোন ধারণা?

উত্তর:


21

অবিচ্ছিন্ন বিতরণ (সহায়তা পৃষ্ঠাতে রাজ্য হিসাবে) থেকে দুটি স্বতন্ত্র নমুনার "একই" পরীক্ষা করার জন্য কেএস পরীক্ষাটি তৈরি করা হয় । যদি এটি হয় তবে সম্পর্কের সম্ভাবনাটি আশ্চর্যজনকভাবে ছোট হওয়া উচিত (এটিও বর্ণিত)। পরীক্ষার পরিসংখ্যান দুটি নমুনার মধ্যে ECDF এর সর্বাধিক দূরত্ব। দু'টি নমুনা একই বন্টন থেকে আঁকা হলে পরীক্ষার পরিসংখ্যানকে উচ্চ বা উচ্চতর হিসাবে পর্যবেক্ষণের সম্ভাবনা হ'ল পি-মান। (এটি "সম্ভাব্যতা যা var1 = var2" নয়। এবং তদুপরি, 1-p_value হয় সেই সম্ভাবনাও নয়)) উচ্চ পি-মানগুলি বলে যে আপনি পারবেন নাকোনও পার্থক্যের জন্য পরিসংখ্যানিক সমর্থন দাবি করুন, তবে কম পি-মানগুলি একইতার প্রমাণ নয়। লো পি-মানগুলি কম নমুনা আকারগুলির (যেমন আপনার উদাহরণটি সরবরাহ করে) বা আকর্ষণীয় তবে ছোট পার্থক্যের উপস্থিতি, উদাহরণস্বরূপ সুপারম্পোজড দোলনীয় ব্যাঘাতের সাথে ঘটতে পারে। আপনি যদি প্রচুর সংখ্যক বন্ধনের সাথে পরিস্থিতির সাথে কাজ করে থাকেন তবে এটি আপনাকে পরামর্শ দেয় যে আপনার এমন একটি পরীক্ষা ব্যবহার করতে হবে যা আপনার ডেটা পরিস্থিতির সাথে আরও ঘনিষ্ঠভাবে ফিট করে।

সম্পর্কগুলি কেন অনুমানের লঙ্ঘন ছিল সে সম্পর্কে আমার ব্যাখ্যা দাবী নয় যে সম্পর্কগুলি ফলাফলকে অকার্যকর করেছিল। অনুশীলনে কেএস পরীক্ষার পরিসংখ্যানগত বৈশিষ্ট্যগুলি তুলনামূলকভাবে প্রতিরোধী বা সেই অনুমানের ব্যর্থতার পক্ষে শক্তিশালী। আমি দেখতে পাচ্ছি কেএস পরীক্ষার মূল সমস্যাটি হ'ল এটি অত্যধিক সাধারণ এবং এর ফলস্বরূপ একটি আকর্ষণীয় প্রকৃতির অর্থপূর্ণ পার্থক্য সনাক্ত করার জন্য আন্ডার পাওয়ারযুক্ত। কেএস পরীক্ষাটি একটি খুব সাধারণ পরীক্ষা এবং আরও নির্দিষ্ট অনুমানের জন্য কম শক্তি রয়েছে rather

অন্যদিকে, আমি কেএস-পরীক্ষা (বা "আরও বেশি শক্তিশালী" অ্যান্ডারসন ডার্লিং বা লিলিফোর্স (এসপি?) পরীক্ষা) এমন পরিস্থিতিতে "স্বাভাবিকতা" পরীক্ষা করতে ব্যবহার করতাম যেখানে এইরকম পরীক্ষা সম্পূর্ণ অনাস্থানহীন, যেমন পরীক্ষার জন্য ফিটের আগে কোনও রিগ্রেশন মডেলটিতে ভবিষ্যদ্বাণী হিসাবে ব্যবহৃত ভেরিয়েবলগুলির স্বাভাবিকতা। কেউ বৈধভাবে স্বাভাবিকতা পরীক্ষা করতে চাইবে এর অবশিষ্টাংশ থেকে যে কি মডেলিং তত্ত্ব অধিকৃত হয়। তারপরেও অবশিষ্টাংশের স্বাভাবিকতা থেকে পরিমিত প্রস্থানগুলি ফলাফলের বৈধতাটিকে সাধারণত চ্যালেঞ্জ দেয় না। পরিসংখ্যানগত তাত্পর্য সম্পর্কে সিদ্ধান্তে "অ-স্বাভাবিকতা" এর গুরুত্বপূর্ণ প্রভাব পরীক্ষা করার জন্য ব্যক্তিরা শক্তিশালী পদ্ধতি ব্যবহার করা আরও ভাল।

সম্ভবত আপনার কোনও স্থানীয় পরিসংখ্যানবিদদের সাথে পরামর্শ করা উচিত? এটি আপনাকে পরিসংখ্যানগত প্রশ্নটি আরও কিছুটা স্পষ্টভাবে সংজ্ঞায়িত করতে সহায়তা করতে পারে এবং তাই যদি আসলেই উপস্থিত থাকে তবে কোনও পার্থক্য সনাক্ত করার আরও ভাল সুযোগ থাকতে পারে। এটি একটি "টাইপ II ত্রুটি" এড়ানো হবে: যখন এই ধরনের পার্থক্য উপস্থিত থাকে তখন পার্থক্যের সিদ্ধান্তে সমর্থন করতে ব্যর্থ।



আমি dgof::ks.test(x,y,simulate.p.value=TRUE, B=1000)এবং Matching::ks.boot(x,y, nboots=1000)( sekhon.berkeley.edu/matching/ks.boot.html ) উভয়ই একই উদাহরণ পরীক্ষা করেছি । ডি এবং গণনা করা পি-মান উভয় ক্ষেত্রে একেবারে অভিন্ন। এটি আমাকে ভাবতে বাধ্য করে যে সম্ভবত কেএস এতটা খারাপ নয়, এমনকি যখন কারও একাধিক সম্পর্ক থাকে এবং পদ্ধতিটি কাজের গ্যারান্টিযুক্ত না হয়? আমি কেএস পছন্দ করার কারণটি প্যারামিমেট্রিক নয়, অর্থাত নমুনার জন্য আমার কোনও বিতরণ অনুমান করার দরকার নেই।
ননানকোর্ট

যাইহোক, আমি এখনও করতে পারেন না ডি আমি মান জানার ভেবেছিলাম এটা বর্গমূল (মি * N / (মি + N)) হিসাবে হিসাবে একটি prefactor হতে পারে এখানে , কিন্তু যে করতে হবে D(x,y) = sqrt(100/20)*0.3=0.67, যা এখনও ভিন্ন।
ননানকোর্ট

3

ডি গণনা করতে ( ks.testকোড থেকে ):

ks.test(x,y)

    Two-sample Kolmogorov-Smirnov test

data:  x and y
D = 0.5, p-value = 0.1641
alternative hypothesis: two-sided

alternative <- "two.sided"
x <- x[!is.na(x)]
n <- length(x)
  y <- y[!is.na(y)]
  n.x <- as.double(n)
  n.y <- length(y)
  w <- c(x, y)
  z <- cumsum(ifelse(order(w) <= n.x, 1/n.x, -1/n.y))
  z <- z[c(which(diff(sort(w)) != 0), n.x + n.y)] #exclude ties
  STATISTIC <- switch(alternative, two.sided = max(abs(z)), 
                      greater = max(z), less = -min(z))
  STATISTIC

[1] 0.5
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.