ঘন ঘন এবং প্রিয়ার্স


17

রবি ম্যাককিলিয়াম এই পোস্টে দেওয়া মন্তব্যে বলেছেন :

এটি উল্লেখ করা উচিত যে ঘন ঘনবাদীদের দৃষ্টিকোণ থেকে, পূর্ববর্তী জ্ঞানটি মডেলটিতে অন্তর্ভুক্ত করতে পারবেন না এমন কোনও কারণ নেই। এই অর্থে, ঘন ঘন দৃষ্টিভঙ্গি সহজ, আপনার কাছে কেবলমাত্র একটি মডেল এবং কিছু ডেটা রয়েছে। মডেল থেকে পূর্বের তথ্য আলাদা করার প্রয়োজন নেই

এছাড়াও, এখানে @ জাবোম্যান বলেছেন যে ঘন ঘন বিশেষজ্ঞরা ব্যয় / পেনাল্টি ফাংশন দ্বারা নিয়মিতকরণ ব্যবহার করেন, তবে বেইসিয়ানরা এটিকে পূর্বের করে তুলতে পারেন:

নিয়মিতকরণ ভাল ছিল বলে ঘন ঘন বিশেষজ্ঞরা বুঝতে পেরেছিলেন এবং আজকাল এটি বেশিরভাগ ক্ষেত্রেই ব্যবহার করেন - এবং বায়সিয়ান প্রিরিয়াররা সহজেই নিয়মিতকরণ হিসাবে ব্যাখ্যা করা যায়।

সুতরাং, আমার প্রশ্নটি হল, সাধারণত ঘন ঘনবাদীরা কি তাদের মডেলগুলিতে বেইসিয়ানরা প্রিয়ার হিসাবে নির্দিষ্ট করে? নিয়ন্ত্রণ হিসাবে উদাহরণ হিসাবে নেওয়া, ব্যয় / পেনাল্টি ফাংশনটি কি আসলেই মডেলটির সাথে একীভূত হয়, বা এটি সমাধানটি সামঞ্জস্য করার খাঁটি কৃত্রিম উপায় (পাশাপাশি এটি অনন্য করে তোলা)?


একজন মধ্যস্থতাকারী কি জোবোম্যান এবং রবিকে অবহিত করতে পারেন, যাতে তারা বিস্তারিত বলতে পারে? নাকি তা যথাযথ নয়?
প্যাট্রিক

1
প্যাট্রিক, আপনি "@" নির্মাণ ব্যবহার করে এই সাইটের কোনও সদস্যকে অবহিত করতে পারেন। আমি এটি একটি ছোট সম্পাদনা দিয়ে চিত্রিত করেছি।
হোবার

এটি উভয় জায়গায় কাজ করে :-)।
হোবার

জিৎ, হু হু হু, আমি বিজ্ঞপ্তি পেলাম না ... সম্ভবত সম্পাদনাগুলি তা করে না? এখন আমি কৌতূহলী।
জোবোম্যান

1
ঠিক আছে, দেখা যাচ্ছে যে আমি ভুল ছিলাম : "@" মেকানিজম প্রশ্নগুলিতে নয়, মন্তব্যে কাজ করে। (কিন্তু jbowman এই প্রশ্নের যাহাই হউক না কেন খুঁজে পাওয়া যায়নি।)
whuber

উত্তর:


8

রবি ম্যাককিলিয়ামের মন্তব্যে শ্রদ্ধার সাথে: আমি মনে করি যে একটি পূর্ববর্তী জ্ঞানকে একটি মডেলটিতে অন্তর্ভুক্ত করার দক্ষতার সাথে এতটা নয়, "পূর্ববর্তী জ্ঞান" সংজ্ঞাটিতে এই ঘনঘটিত একজন ঘন ঘন বিশেষজ্ঞের যে অসুবিধা হবে। উদাহরণস্বরূপ, প্রদত্ত মুদ্রাটি যে শীর্ষে আসবে তার সম্ভাবনা অনুমান করার বিষয়ে বিবেচনা করুন। Let us অনুমান আমার পূর্বে জ্ঞান ছিল, মূলত, একটি পরীক্ষা যা যে মুদ্রা 10 বার ফ্লিপ করা হয়েছে এবং 5 কর্তাদের, অথবা সম্ভবত, ফর্ম এর "কারখানা 1 মিলিয়ন কয়েন তৈরি এবং এর dist'n নিয়ে এসেছেন , যেমন বিশাল পরীক্ষাগুলি দ্বারা নির্ধারিত হয় β ( , )pβ(a,b)"। সত্যই এই ধরণের পূর্বের তথ্য উপস্থিত থাকাকালীন প্রত্যেকে বায়েসের বিধি ব্যবহার করে (বায়েসের বিধিটি কেবল শর্তযুক্ত সম্ভাবনার সংজ্ঞা দেয়, এটি কোনও বায়েশিয়ান-একমাত্র জিনিস নয়) তাই বাস্তব জীবনে ঘনত্ববাদী এবং বায়েশিয়ান একই পদ্ধতি ব্যবহার করবে এবং বায়েসের নিয়মের মাধ্যমে মডেলটিতে তথ্যটি অন্তর্ভুক্ত করুন ((ক্যাভ্যাট: যদি না আপনার নমুনার আকারটি যথেষ্ট পরিমাণে বড় না হয় তবে আপনি নিশ্চিত হন যে পূর্ববর্তী তথ্যের ফলাফলগুলির উপর কোনও প্রভাব পড়বে না)) তবে, ফলাফলগুলির ব্যাখ্যাটি হ'ল, অবশ্যই, ভিন্ন।

অসুবিধা দেখা দেয়, বিশেষত দার্শনিক দৃষ্টিকোণ থেকে, কারণ জ্ঞানটি কম উদ্দেশ্য / পরীক্ষামূলক এবং আরও বিষয়গত হয়। যেমনটি ঘটে, ঘন ঘনবাদী সম্ভবত এই তথ্যটি মডেলটিতে অন্তর্ভুক্ত করার জন্য কম ঝোঁক হয়ে উঠবে, যদিও বায়েশিয়ানদের এখনও এমন কিছু করার জন্য আরও কম বা কিছু প্রথাগত ব্যবস্থা আছে, তবে এর আগেও বিষয়বস্তু নির্বাচন করতে অসুবিধা হবে।

নিয়মিতকরণের ক্ষেত্রে: সম্ভাবনা এবং একটি পূর্ববর্তী ( θ ) বিবেচনা করুনলগ পি ( θ ) দ্বারা সর্বাধিক সম্ভাবনা অনুমান "নিয়মিত" ব্যবহার করা থেকে অন্তত প্রযুক্তিগতভাবে নয়, কোনও আটকানোর কিছুই নেই :l(θ;x)p(θ)logp(θ)

θ~=maxθ{logl(θ;x)+logp(θ)}

p(θ)θθ~

আবার দার্শনিক দৃষ্টিকোণ থেকে অসুবিধা দেখা দেয়। কেন একজনের নিয়মিতকরণের কাজটিকে অন্যের চেয়ে বেশি বেছে নিন? একজন বায়েশিয়ান এটি করতে পারে - পূর্বের তথ্যের মূল্যায়ন করে পূর্ব-ভিত্তিক দৃশ্যে স্থানান্তরিত। যুগোপযোগী ব্যক্তির পক্ষে সেই কারণগুলির মধ্যে একটি পছন্দকে ন্যায়সঙ্গত করার জন্য একটি কঠিন সময় (অক্ষম?) তবে তার পরিবর্তে সম্ভবত নিয়মিতকরণ কার্যকারণের বৈশিষ্ট্যগুলির ভিত্তিতে তার / তার ধরণের সমস্যার ক্ষেত্রে প্রয়োগ করা হবে, যেমনটি যৌথ থেকে শেখা হয়েছিল অনেক পরিসংখ্যানবিদদের কাজ / অভিজ্ঞতা। ওটো, (বাস্তববাদী) বায়েশিয়ানরা প্রিয়ারদের সাথেও তা করে - আমি যদি ভেরিয়েন্সের জন্য প্রিয়ারের প্রতিটি কাগজের জন্য 100 ডলার করে থাকি ...

অন্যান্য "চিন্তাভাবনা": আমি ঘনত্ববাদী / বায়েশিয়ান দৃষ্টিভঙ্গির দ্বারা এটি প্রভাবিত না করে ধরে নিয়ে সম্ভাবনা ফাংশনটি নির্বাচন করার পুরো বিষয়টি এড়িয়ে গিয়েছি। আমি নিশ্চিত যে এটি বেশিরভাগ ক্ষেত্রেই হয় তবে আমি ধারণা করতে পারি যে অস্বাভাবিক পরিস্থিতিতে এটি গণনাগত কারণে হবে eg

θθ


সুতরাং, যদি আমি আপনাকে সঠিকভাবে বুঝতে পারি: প্রযুক্তিগতভাবে, আনুষ্ঠানিকভাবে, একজন বার্ষিকী তার পছন্দমতো নিয়মিত করতে পারে তবে (গুলি) সেটিকে ন্যায্য করতে সমস্যা হবে have একজন বায়েশিয়ান এখনও তার নিয়মিতকরণের পরিমাণ নির্ধারণ করতে সমস্যা হতে পারে, তবে গুণগতভাবে (গুলি) সেটিকে অন্তর্ভুক্ত করার একটি ধারাবাহিক উপায় পেয়েছে।
প্যাট্রিক

বায়েশিয়ানও পুরো উত্তরোত্তর ডিস্ট্রিবিউশন অ্যাক্সেস সহ কোনও এমএপি পয়েন্টের প্রাক্কলন ব্যবহার করতে সীমাবদ্ধ নয় - তবে, ঘন ঘন বিশেষজ্ঞকে নিয়মিতভাবে লগের সম্ভাবনা সর্বাধিক করতে হবে না, হয় বিভিন্ন শক্তিশালী অনুমান বা পদ্ধতি অবলম্বন করতে সক্ষম হয়ে - মুহুর্তগুলি, ইত্যাদি যদি পাওয়া যায়। ফ্রিকোয়েন্সিস্টকে সর্বোচ্চ করতে হবে না। তবে এটি এখনও ফ্রিকোয়েন্সিস্টদের কাছে উপলব্ধ একটি পদ্ধতি, যদি তারা এটি পছন্দ করে, তাই না? আমার কুণ্ডলীটি হ'ল historicতিহাসিক কারণে (কোনও কম্পিউটার নেই!) ঘন ঘন তাদের কাছে অনেকগুলি স্মার্ট অনুমানকারী থাকে যা তারা পুরো সম্ভাবনা ফানক গণনা করার পরিবর্তে ব্যবহার করে।
প্যাট্রিক

5

এই প্রশ্নের উত্তর দেওয়ার উদ্দেশ্যে ঘন ঘনवादকে "ডেটা ফাংশনগুলির নমুনা বন্টনের বৈশিষ্ট্যগুলিতে আগ্রহ" হিসাবে সংজ্ঞা দেওয়া দরকারী। এই ধরনের ফাংশনগুলি পয়েন্ট আনুমানিক, পরীক্ষার পরিসংখ্যানের পি-মান, আত্মবিশ্বাসের ব্যবধান, নেইমন-পিয়ারসন পরীক্ষার ফলাফল বা মূলত আপনি যা ভাবতে পারেন সেগুলি হতে পারে। ঘনত্ববাদ পুরো সাধারণতায় প্রাক্কলনকারী, পি-মান ইত্যাদি কীভাবে নির্ধারণ করতে পারে তা নির্দিষ্ট করে না, যদিও কিছু গাইডলাইন উপস্থিত রয়েছে, যেমন, যদি উপলব্ধ থাকে তবে পর্যাপ্ত পরিসংখ্যান ব্যবহার করুন, তারা যদি পাওয়া যায় তবে মূল পরিসংখ্যান ব্যবহার করুন ইত্যাদি। দৃষ্টিকোণ, পূর্বের তথ্যগুলি প্রতি সে মডেলের সাথে সংযুক্ত নয়, বরং ফাংশনের আউটপুটটিতে ফাংশন ম্যাপিংয়ের ডেটাতে।

উপরে বর্ণিত "আগ্রহ" হ'ল বৈশিষ্ট্যগুলিতে অনুক্রমের জন্য গুরুত্বপূর্ণ হিসাবে বিবেচিত হয়, যেমন পক্ষপাতের অভাব, অ্যাসিপটোটিক ধারাবাহিকতা, বৈকল্পিক, মানে স্কোয়ার ত্রুটি, অর্থ নিখুঁত ত্রুটি, আত্মবিশ্বাসের কভারেজ (বিশেষত নামমাত্র বনাম আসল), টাইপ আই ত্রুটি নিয়ন্ত্রণ, এবং যেকোন কিছু অন্যথায় ডেটা থেকে শেখার জন্য সুস্পষ্ট বা স্বজ্ঞাত গুরুত্ব সহ এই বৈশিষ্ট্যগুলি মূল্যায়ন করা যেতে পারে (সিমুলেশন দ্বারা, অন্য কিছু না হলে) ফাংশনটি পূর্বের তথ্যকে অন্তর্ভুক্ত করে কিনা।

বৈশিষ্ট্যগুলিতে বিশেষভাবে আগ্রহী কেন্দ্রগুলি যা ডেটা জেনারেশন প্রক্রিয়াটির অন্তর্গত প্রকৃত প্যারামিটারের মান বিবেচনায় রাখে না বলে পরিচিত। উদাহরণস্বরূপ, সাধারণ আইআইডি মডেলটিতে জ্ঞাত বৈকল্পিকের সাথে ডেটা অর্থ নিরপেক্ষ এবং বিতরণের জন্য অ্যাসেম্পোটটিক্যালি সুসংগত যা তা তা বোঝায় না। বিপরীতে, সংকোচনের প্রাক্কলনকারী (ডেটা গড়ের গড় ওজন এবং গড় বন্টন গড়ের পূর্ব অনুমান) বন্টন গড় পূর্ব অনুমানের কাছাকাছি থাকলে তবে উচ্চতর গড় স্কোয়ার ত্রুটি অন্যথায়, যদিও এটি " ডেটা মানে থেকে অ্যাসিপটোটিক ধারাবাহিকতা উত্তরাধিকার সূত্রে প্রাপ্ত হয়।

সুতরাং আমি বলব যে অনুমান পদ্ধতিতে একজন পূর্বের তথ্য রাখতে পারে তবে এটি মডেলটিতে যায় না। শারীরিক সম্পত্তির জন্য আত্মবিশ্বাসের ব্যবস্থাগুলির প্রসঙ্গে যে রূপগুলি আমি অ-নেতিবাচকভাবে আবশ্যক তা হ'ল ফিল্ডম্যান এবং কাজিন্স, ছোট সংকেতের শাস্ত্রীয় পরিসংখ্যান বিশ্লেষণের একীভূত দৃষ্টিভঙ্গির সত্যই সুন্দর চিত্রণ ।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.