দূরত্ব পারস্পরিক সম্পর্কের একটি স্বজ্ঞাত বৈশিষ্ট্য আছে?


14

আমি দূরত্বের সম্পর্কের জন্য উইকিপিডিয়া পৃষ্ঠায় ঘুরে দেখছি যেখানে এটি কীভাবে গণনা করা যায় তার বৈশিষ্ট্যযুক্ত বলে মনে হয়। আমি গণনার কাজ করতে পারে যদিও আমি সংগ্রাম পেতে এবং দূরত্ব পারস্পরিক সম্পর্ক পরিমাপ করে কেন গণনার তারা যেমন দেখুন।

দূরত্ব পারস্পরিক সম্পর্কের আরও (বা অনেক) স্বজ্ঞাত বৈশিষ্ট্য যা আমাকে এটির কী পরিমাণে পরিমাপ করে তা বুঝতে সহায়তা করতে পারে?

আমি বুঝতে পেরেছি যে অন্তর্দৃষ্টি জিজ্ঞাসা করা কিছুটা অস্পষ্ট, তবে আমি যদি জানতাম যে আমি কী ধরনের অন্তর্দৃষ্টি জিজ্ঞাসা করছি আমি সম্ভবত প্রথম স্থানে জিজ্ঞাসা করতাম না। আমি দুটি এলোমেলো ভেরিয়েবলের মধ্যে দূরত্ব পারস্পরিক সম্পর্কের ক্ষেত্রে অন্তর্দৃষ্টি সম্পর্কেও খুশি হব (যদিও দুটি র্যান্ডম ভেক্টরগুলির মধ্যে দূরত্বের সম্পর্কটি সংজ্ঞায়িত করা হয়েছে)।

উত্তর:


8

এই আমার উত্তর প্রশ্নের সঠিক উত্তর দেয় না । মন্তব্য পড়ুন।

আসুন আমরা সাধারণ স্বাচ্ছন্দ্য এবং দূরত্বের covariance তুলনা করি । উভয়ের কার্যকর অংশটি হ'ল তাদের অঙ্কগুলি ume থেকে ডেভিয়েশন (denominators কেবল গড় করা হয়।) সহভেদাংক লব সংকলিত ক্রস পণ্য (= স্কালে পণ্য) এক পয়েন্ট, কি বলতে চান: ( সুপারস্রিপ্টেড সহ সেই সেন্ট্রয়েড হিসাবে)। : এই স্টাইলে অভিব্যক্তি পুনর্লিখন সঙ্গে, বিন্দু বিচ্যুতি জন্য দাঁড়িয়ে centroid, অর্থাত্ তার (স্বাক্ষরিত) centroid দূরত্ব থেকে। সমস্ত পয়েন্টের তুলনায় দুটি দূরত্বের পণ্যের যোগফল দ্বারা সমবায়িক সংজ্ঞা দেওয়া হয়।Σ(xiμx)(yiμy)μΣdiμxdiμydi

দূরত্বের covariance সঙ্গে জিনিসগুলি কীভাবে ? অঙ্কটি হ'ল, আপনি যেমন জানেন, । আমরা উপরে যা লিখেছি তা কি খুব একটা পছন্দ করে না? আর পার্থক্য কী? এখানে, দূরত্ব হ'ল উপরের মত ডেটা পয়েন্ট এবং গড়ের মধ্যে নয়, বিভিন্ন ডেটা পয়েন্টের মধ্যে রয়েছে। দূরত্বের কোভরিয়েন্সটি সমস্ত জোড় পয়েন্টের তুলনায় দুটি দূরত্বের সামগ্রীর যোগফল দ্বারা সংজ্ঞায়িত হয়।Σdijxdijyd

স্কেলার পণ্যটি (দুটি সত্তার মধ্যে - আমাদের ক্ষেত্রে, ভেরিয়েবল এবং ) একটি নির্দিষ্ট পয়েন্ট থেকে সহ-দূরত্বের উপর ভিত্তি করে ডেটা যখন একটি সরলরেখার সাথে সাজানো হয় তখন সর্বাধিক হয় । ভ্যারায় * আই * সক্ষম পয়েন্ট থেকে সহ-দূরত্বের উপর ভিত্তি করে স্কেলার পণ্যটি যখন স্থানীয়ভাবে স্থানীয়ভাবে উপাত্তগুলি একটি সরলরেখার সাথে সাজানো হয় তখন সর্বাধিক হয়; অন্য কথায়, যখন ডেটা সামগ্রিকভাবে কোনও আকারের শৃঙ্খলা উপস্থাপন করে , কোনও আকারের নির্ভরতা।xy

এবং প্রকৃতপক্ষে, সম্পর্কটি নিখুঁত রৈখিক হওয়ার কাছাকাছি থাকলে এবং বৈচিত্রগুলি আরও বড় হয় যখন সাধারণ সমবায় বড় হয়। আপনি যদি কোনও নির্দিষ্ট ইউনিটে রূপগুলি মানক করে তোলেন তবে সমবায়ুতা কেবলমাত্র রৈখিক সংস্থার শক্তির উপর নির্ভর করে এবং এরপরে এটি পিয়ারসন পারস্পরিক সম্পর্ক বলে । এবং যেমনটি আমরা জানি - এবং সম্পর্কটি নিখুঁত বক্ররেখার নিকটবর্তী হওয়ার সাথে সাথে ডেটা স্প্রেডিং আরও বড় হওয়ার কারণ কেন - দূরত্বের সমবায়ুতা আরও বড়। যদি আপনি একটি নির্দিষ্ট ইউনিটে ছড়িয়ে পড়াগুলি মানক করে থাকেন, তবে কিছুটা বক্ররেখার সংস্থার শক্তির উপর কোভেরিয়েন্স নির্ভর করে এবং এরপরে একে ব্রাউনিয়ান (দূরত্ব) পারস্পরিক সম্পর্ক বলা হয়


দ্বিতীয় অনুচ্ছেদে এটি আমার জন্য ক্লিক করেছে। আমি জানি না কেন আমি উইকিপিডিয়া পৃষ্ঠায় এটি দেখিনি ... ধন্যবাদ!
রাসমাস বুথ

কেবল অবাক হচ্ছেন , যেখানে এন.ইউইকিপিডিয়া.আর / উইকি / ব্রাউনিয়ান_কোভারিয়েন্স# দূরত্ব_কোভারিয়েন্সটি আপনার উদাহরণ থেকে সংখ্যক (বা কীভাবে আপনার সংখ্যা থেকে উইকিপিডিয়া সংস্করণে পাবেন)? উইকিপিডিয়া কেবল কীভাবে দূরত্বের সমবায়ার বর্গক্ষেত্র গণনা করতে পারে তা বর্ণনা করে এবং সেখানে বর্ণনার সাথে আপনার বর্ণনার সাথে মেলে আমার কিছুটা সমস্যা হচ্ছে ...
রাসমাস বুথ

@ রসমাস, আমার "সংখ্যার সূত্র" স্কোয়ারযুক্ত নমুনা দূরত্বের কোভেরিয়েন্সের উইকিপিডিয়া সূত্রে সম্মত। কিন্তু আমি এক (গুরুত্বপূর্ণ) সামান্য পার্থক্য মিস যে দূরত্বের ডবল কেঁদ্রীকরণ দ্বারা রুপান্তরিত হয়। সুতরাং আমার উত্তরটি আমার সম্পাদনা করতে হতে পারে। আমি আগামীকাল না হলে কয়েক দিনের মধ্যে ফিরতে সময় পাব বলে আশা করি। d
ttnphns

হ্যাঁ, ডাবল সেন্টারিং আমাকে বিস্মিত করছে। আপনার যদি স্পষ্ট করার সময় থাকে তবে প্রচুর পরিমাণে ধরা পড়বে! :)
রাসমুস বুথ

1
যা এখনও আমাকে এড়িয়ে চলেছে তা হ'ল একটি নিম্ন শক্তি, উদাহরণস্বরূপ ডিফল্ট pha , যা ডাবল সেন্টারিংয়ের মাধ্যমে প্রাপ্ত বিচ্যুতির সংকোচনের ও ঘৃণা করে, ডিসিওভকে তার অনন্য সম্পত্তি হিসাবে পরিসংখ্যান তৈরি করে: এটি যদি 0 এবং এক্স এবং ওয়াই পরিসংখ্যানগতভাবে স্বতন্ত্র থাকে। কারণ আমি এর অন্তর্দৃষ্টি বা জ্ঞান পাইনি আমি ভয় করি যে আমার উত্তরের ২ য় অনুচ্ছেদটি ভুল ব্যাখ্যা বা সরলকরণ। আমি তাই আমার উত্তর মুছে ফেলার ঝোঁক। আপনি কিছু বলতে পারেন? α=1
ttnphns
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.