সম্ভাবনা-মুক্ত অনুমান - এর অর্থ কী?


11

সাম্প্রতিক সময়ে আমি সাহিত্যে 'সম্ভাবনা-মুক্ত' পদ্ধতিগুলি সম্পর্কে জোরদার হয়েছি aware তবে আমি অনুমান বা অপ্টিমাইজেশন পদ্ধতির সম্ভাবনা-মুক্ত হওয়ার অর্থ কী তা সম্পর্কে আমি পরিষ্কার নই ।

মেশিন লার্নিংয়ে লক্ষ্যটি সাধারণত কোনও ফাংশন ফিট করার জন্য কিছু পরামিতিগুলির সম্ভাবনা সর্বাধিক করে তোলা হয় যেমন একটি নিউরাল নেটওয়ার্কের ওজন।

তাহলে সম্ভাবনা-মুক্ত পদ্ধতির দর্শনটি ঠিক কী এবং জিএএনএস-এর মতো অ্যাডভারসিয়াল নেটওয়ার্কগুলি কেন এই বিভাগে আসে?

উত্তর:


10

পরিসংখ্যানগুলির সম্ভাবনার উপর ভিত্তি করে না এমন পদ্ধতিগুলির অনেকগুলি উদাহরণ রয়েছে (আমি মেশিন লার্নিং সম্পর্কে জানি না)। কিছু উদাহরণ:

  1. ফিশারের বিশুদ্ধ তাত্পর্য পরীক্ষা করে । কেবলমাত্র তীব্র সংজ্ঞায়িত নাল অনুমানের উপর ভিত্তি করে (যেমন লেডি টেস্টিং টি পরীক্ষায় দুধের মধ্যে প্রথম এবং দুধের মধ্যে কোনও তফাত নেই ass এই অনুমানটি নাল অনুমানের বিতরণ এবং তারপরে পি-মানের দিকে পরিচালিত করে। কোনও সম্ভাবনা জড়িত না This এই ন্যূনতম অনুমানমূলক যন্ত্রপাতি নিজেই শক্তি বিশ্লেষণের জন্য কোনও ভিত্তি দিতে পারে না (আনুষ্ঠানিকভাবে সংজ্ঞায়িত বিকল্প নেই) বা আত্মবিশ্বাসের বিরতি (কোনও আনুষ্ঠানিকভাবে সংজ্ঞায়িত পরামিতি নেই)।

  2. 1-এর সাথে জড়িত র‌্যান্ডমাইজেশন পরীক্ষাটি র‌্যান্ডমাইজেশন টেস্ট এবং পারমুটিশন টেস্টের মধ্যে পার্থক্য , যা এর সবচেয়ে প্রাথমিক আকারে একটি খাঁটি তাত্পর্য পরীক্ষা।

  3. কোনও সম্ভাবনা ফাংশনের প্রয়োজন ছাড়াই বুটস্ট্র্যাপিং করা হয়। তবে সম্ভাবনা ধারণাগুলির সাথে সংযোগ রয়েছে, উদাহরণস্বরূপ অভিজ্ঞতাগত সম্ভাবনা

  4. র্যাঙ্ক-ভিত্তিক পদ্ধতিগুলি সাধারণত সম্ভাবনা ব্যবহার করে না।

  5. শক্তিশালী পরিসংখ্যান অনেক।

  6. মাঝারি (বা অন্যান্য কোয়ান্টাইল) এর জন্য আস্থা অন্তরগুলি আদেশের পরিসংখ্যানের ভিত্তিতে তৈরি করা যেতে পারে। কোনও সম্ভাবনা গণনার সাথে জড়িত নয়। মধ্যস্থতার জন্য আত্মবিশ্বাসের ব্যবধান , বোধগম্য মধ্যস্থতার বৈচিত্রের জন্য সেরা অনুমানকারী

  7. ব্ল্যাক সোয়ান তালেব ও ব্ল্যাক রাজহাঁসের আলোচিত আলোচনার সাথে ভি ভ্যাপনিকের ট্রান্সডেস্টিভ লার্নিংয়ের ধারণা ছিল যা https://en.wikedia.org/wiki/Epilogism এর সাথে সম্পর্কিত বলে মনে হয় ।

  8. ডেটা অ্যানালাইসিস এবং আনুমানিক মডেল বইটিতে লরি ডেভিস আনুমানিক অন্তর্ভুক্ত হিসাবে পরিসংখ্যানগত মডেলগুলির একটি নিয়মতান্ত্রিক তত্ত্ব তৈরি করেছেন, আত্মবিশ্বাসের অন্তরগুলি আনুমানিক অন্তরগুলির দ্বারা প্রতিস্থাপিত হয়েছিল এবং কোনও বিতরণের প্যারাম্যাট্রিক পরিবার নেই , কোনও কেবল এবং আরও কিছু। এবং কোন সম্ভাবনা।এন(μ,σ2)এন(9.37,2.122)

এই মুহুর্তে আপনি সম্ভাবনা ফাংশনটি পেয়েছেন, সেখানে তৈরি করার জন্য রয়েছে একটি বিশাল যন্ত্রপাতি। বায়েশিয়ানরা ছাড়া এটি করতে পারে না এবং অন্যরা বেশিরভাগ সময় সম্ভাবনা ব্যবহার করে। তবে এটি একটি মন্তব্যে ইঙ্গিত করা হয়েছে যে এমনকি বায়েশিয়ানরাও এটি না করেই চেষ্টা করে দেখুন, আনুমানিক_বায়েশিয়ান_কম্পোটেশন দেখুন । এমনকি এই বিষয়টিতে একটি নতুন পাঠ্য রয়েছে।

কিন্তু তারা কোথা থেকে আসে? সাধারণ উপায়ে সম্ভাবনা ফাংশনটি পেতে, আমাদের প্রচুর অনুমানের প্রয়োজন যা সত্য হিসাবে প্রমাণ করা কঠিন।

এটি জিজ্ঞাসা করা আকর্ষণীয় যে আমরা সম্ভাবনা ফাংশনগুলি কোনওভাবে এই সম্ভাবনা-মুক্ত পদ্ধতিগুলি থেকে তৈরি করতে পারি কিনা। উদাহরণস্বরূপ, উপরে point দফায়, আমরা অর্ডার পরিসংখ্যান থেকে গণনা করা (একটি পরিবারের) আত্মবিশ্বাসের অন্তর থেকে মধ্যস্থতার জন্য কোনও সম্ভাবনা ফাংশন তৈরি করতে পারি? আমার এটি আলাদা প্রশ্ন হিসাবে জিজ্ঞাসা করা উচিত ...

জিএএন'র বিষয়ে আপনার শেষ প্রশ্নটি আমি অবশ্যই অন্যদের ছেড়ে চলে যাব।


7
(+1) তবে আনুমানিক বায়েশিয়ান গণনা দেখুন । (আমি এই ধারণাটি অনুভব করেছি যে "সম্ভাবনা মুক্ত" এমন প্রক্রিয়াগুলির জন্য বেশি ব্যবহৃত হয় যেখানে আপনি সম্ভাবনা ফাংশনটি সম্পাদন করার প্রয়োজন মনে করেন তবে প্রয়োজন নেই; বরং এলোমেলোকরণের পরীক্ষা এবং এর মতো যা আপনি সম্ভবত ডোন করেন না ' টি।)
স্কোর্টচি - মনিকা পুনরায় ইনস্টল করুন

9

বিশেষত, [সাম্প্রতিক] সম্ভাবনা মুক্ত পদ্ধতিগুলি এবিসি অ্যালগরিদমগুলির একটি পুনরায় রেকর্ডিং, যেখানে এবিসিটি আনুমানিক বায়েশিয়ান গণনা বোঝায় । এটি এমন অনুমানের পদ্ধতিগুলি কভার করতে চায় যা একটি বদ্ধ-ফর্ম সম্ভাবনা ফাংশন ব্যবহারের প্রয়োজন হয় না, তবে এখনও একটি নির্দিষ্ট পরিসংখ্যানের মডেল অধ্যয়ন করার ইচ্ছা করে। তারা সম্ভাবনার সাথে সংযুক্ত গণ্য সমস্যা থেকে মুক্ত তবে এই সম্ভাবনাটি তৈরি করে এমন মডেল থেকে নয়। উদাহরণস্বরূপ দেখুন

  1. গ্রিলাউড, এ; মেরিন, জেএম; রবার্ট, সি; রডলফ, এফ; ট্যালি, এফ (২০০৯)। "গীবস এলোমেলো ক্ষেত্রগুলিতে মডেল নির্বাচনের সম্ভাবনা-মুক্ত পদ্ধতি"। বায়েশিয়ান বিশ্লেষণ। 3: 427–442
  2. রত্মান, ও; আন্দ্রেইউ, সি; উইউফ, সি; রিচার্ডসন, এস (২০০৯) "প্রোটিন নেটওয়ার্ক বিবর্তনের ক্ষেত্রে অ্যাপ্লিকেশন সহ সম্ভাবনা-মুক্ত অনুক্রমের ভিত্তিতে মডেল সমালোচনা"। আমেরিকা যুক্তরাষ্ট্রের জাতীয় বিজ্ঞান একাডেমির কার্যক্রম। 106: 10576–10581
  3. বাজিন, ই।, ডসন, কেজে, এবং বিউমন্ট, এমএ (2010)। জনগণের কাঠামোর সম্ভাবনা-মুক্ত অনুমিতি এবং একটি বয়েসিয়ান শ্রেণিবদ্ধ মডেলটিতে স্থানীয় অভিযোজন। জেনেটিক্স, 185 (2), 587-602
  4. ডিডেলোট, এক্স; এভারিট, আরজি; জোহানসেন, এএম; লসন, ডিজে (২০১১)। "সম্ভাব্যামুক্ত মডেল প্রমাণের অনুমান"। বায়েশিয়ান বিশ্লেষণ। 6: 49–76
  5. গুটম্যান, এম এবং কর্যান্ডার, জে। (২০১ 2016) মেশিন লার্নিং রিসার্চ জার্নাল জার্নাল সিমুলেটর-ভিত্তিক পরিসংখ্যান মডেলগুলির সম্ভাবনা-মুক্ত অনুক্রমের জন্য বয়েসিয়ান অপ্টিমাইজেশন ।

2

উত্তরের লিটানিতে যুক্ত করার জন্য, অ্যাসিম্পোটিক পরিসংখ্যানগুলি আসলে সম্ভাবনা মুক্ত।

একটি "সম্ভাবনা" এখানে ডেটাগুলির সম্ভাব্যতা মডেলকে বোঝায় । আমি সে সম্পর্কে চিন্তা করতে পারে না। তবে আমি কিছু সাধারণ অনুমানকারী খুঁজে পেতে পারি, যেমন গড় হিসাবে, এটি ডেটাগুলির পর্যাপ্ত সংক্ষিপ্তসার এবং আমি বিতরণের গড় সম্পর্কে ধারণাটি সম্পাদন করতে চাই (এটি ধরে নেওয়া যায় যে এটি প্রায়শই যুক্তিসঙ্গত অনুমান)।

কেন্দ্রীয় সীমাবদ্ধ উপপাদ্য অনুসারে, বৃহত্তর এনে যখন বৈকল্পিকতা উপস্থিত থাকে তখন গড়ের একটি আনুমানিক স্বাভাবিক বন্টন হয়। আমি যথাযথ পরীক্ষাগুলি তৈরি করতে পারি (নালটি মিথ্যা হলে এন অফ ইনফিনিটিতে যায় পাওয়ার 1 এ চলে যায়) যা সঠিক আকারের। সীমাবদ্ধ নমুনা আকারে গড়ের স্যাম্পলিং বিতরণের জন্য আমার কাছে সম্ভাব্যতা মডেল (এটি মিথ্যা) রয়েছে, তবে আমার "উপাত্তের দরকারী সংক্ষিপ্তসার" (গড়) বাড়ানোর জন্য আমি বৈধ অনুমান এবং নিরপেক্ষ অনুমান পেতে পারি।

এটি লক্ষ করা উচিত যে মিডিয়ানের 95% সিআই এর উপর ভিত্তি করে পরীক্ষাগুলি (যেমন @ কেজিটালভালভর্সেনের উত্তরের বিকল্প 6) এছাড়াও তারা যে সামঞ্জস্যপূর্ণ তা দেখানোর জন্য কেন্দ্রীয় সীমাবদ্ধ তত্ত্বটির উপর নির্ভর করে। সুতরাং সরল টি-টেস্টকে একটি "নন-প্যারামেট্রিক" বা "অ-সম্ভাবনা ভিত্তিক" পরীক্ষা হিসাবে বিবেচনা করা পাগল নয়।


1

মেশিন লার্নিংয়ের দিকে: মেশিন লার্নিংয়ে আপনি সাধারণত সর্বাধিক করার চেষ্টা করেন , যেখানে টার্গেট হয় এবং হ'ল ইনপুট (উদাহরণস্বরূপ, এক্স কিছু এলোমেলো শব্দ হতে পারে, এবং y একটি চিত্র হবে) )। এখন, আমরা কীভাবে এটি অপ্টিমাইজ করব? এটি করার একটি সাধারণ উপায় হ'ল, এটি । যদি আমরা এটি ধরে নিই তবে এটি গড় স্কোয়ার ত্রুটির দিকে পরিচালিত করে। দ্রষ্টব্য, আমরা ফর্ম হিসাবে ধরে নিয়েছি । যাইহোক, আমরা যদি কোনও নির্দিষ্ট বিতরণ অনুমান না করি তবে এটিকে সম্ভাবনা মুক্ত শিক্ষা বলা হয়।পি(Y|এক্স)এক্সYপি(Y|এক্স)=এন(Y|μ(এক্স),σ)পি ( y | x )পি(Y|এক্স)

জ্যানরা কেন এর অধীনে আসে? ওয়েল, লস ফাংশনটি একটি নিউরাল নেটওয়ার্ক এবং এই স্নায়ু নেটওয়ার্কটি স্থির নয়, তবে যৌথভাবে শিখেছি। অতএব, আমরা আর কোনও রূপ ধরে নিই না (ব্যতীত যে বিতরণ পরিবারে পড়ে, এটি বৈষম্যকারীর দ্বারা প্রতিনিধিত্ব করা যেতে পারে, তবে তত্ত্বের জন্য আমরা বলি এটি যাইহোক সর্বজনীন ফাংশন আনুমানিক)।পি(Y|এক্স)

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.