কিভাবে সম্ভাবনাটি কঠোরভাবে সংজ্ঞায়িত করা যায়?


30

সম্ভাবনাটি বিভিন্ন উপায়ে সংজ্ঞায়িত করা যায়, উদাহরণস্বরূপ:

  • ফাংশন থেকে যা মানচিত্র কাছে অর্থাত ।LΘ×X(θ,x)L(θx)L:Θ×XR

  • র্যান্ডম ফাংশনL(X)

  • আমরা এটিও বিবেচনা করতে পারি যে সম্ভাবনাটি কেবল "পর্যবেক্ষণ" হওয়ার সম্ভাবনাL(xobs)

  • অনুশীলনে সম্ভাবনাটি কেবলমাত্র একটি গুণক ধ্রুবক পর্যন্ত তথ্য নিয়ে আসে , সুতরাং আমরা সম্ভাব্যতাকে একটি ফাংশন না করে ফাংশনের সমতুল্য শ্রেণি হিসাবে বিবেচনা করতে পারিθ

প্যারামিট্রাইজেশনের পরিবর্তনের কথা বিবেচনা করার সময় আরেকটি প্রশ্ন দেখা দেয়: যদি commonly হয় নতুন প্যারামিটারাইজেশন যা আমরা সাধারণত দ্বারা চিহ্নিত করি সম্ভাবনা এবং এটি পূর্ববর্তী ফাংশন এর মূল্যায়ন নয় এ কিন্তু । এটি একটি আপত্তিজনক কিন্তু দরকারী স্বরলিপি যা জোর দেওয়া না হলে প্রাথমিকভাবে অসুবিধার কারণ হতে পারে।ϕ=θ2L(ϕx)ϕL(x)θ2ϕ

সম্ভাবনার আপনার প্রিয় কঠোর সংজ্ঞাটি কী?

এছাড়াও আপনি কীভাবে ? আমি সাধারণত "এ সম্ভাবনা ভালো কিছু বলতে যখন পালন করা হয়"।L(θx)θx

সম্পাদনা: নীচে কিছু মন্তব্য দেখে, আমি বুঝতে পারি যে আমার প্রসঙ্গটি সুনির্দিষ্ট করা উচিত ছিল। আমি প্যারামেট্রিক পরিবার given দ্বারা প্রদত্ত একটি পরিসংখ্যানগত মডেল বিবেচনা করি , প্রতিটি সহ কিছু প্রভাবশালী পরিমাপের সাথে ঘনত্বের পর্যবেক্ষণ স্থান সংজ্ঞায়িত । সুতরাং আমরা সংজ্ঞায়িত করি এবং প্রশ্নটি " কি ?" (প্রশ্ন সম্ভাবনার একটি সাধারণ সংজ্ঞা সম্পর্কে নয়){f(θ),θΘ}f(θ)XL(θx)=f(xθ)L


2
(1) কারণ for all , আমি বিশ্বাস করি এমনকি এর ধ্রুবককে সংজ্ঞায়িত করা হয়েছে। (2) তোমার মত পরামিতি মনে করেন এবং নিছক হচ্ছে স্থানাঙ্ক ডিস্ট্রিবিউশন একটি নানাবিধ জন্য, তারপর একখান এর পরিবর্তন কোন স্বকীয় গাণিতিক অর্থ আমি; এটি নিছক বর্ণনার পরিবর্তন। (3) দেশীয় ইংরেজি ভাষাভাষী আরো স্বাভাবিকভাবেই বলব "সম্ভাবনা এর " বদলে "এ।" (4) " টি পর্যবেক্ষণ করা হয়" এই ধারাটিতে দার্শনিক অসুবিধা রয়েছে, কারণ বেশিরভাগ কখনই পালন করা হবে না। কেন শুধু শুধু বলুন "সম্ভাবনা দেওয়াθ এল ϕ θ θ এক্স এক্স θ এক্সL(θ|x)dx=1θLϕθ θxxθx "?
whuber

1
@ হুবার: (1) এর জন্য, আমি মনে করি না ধ্রুবকটি সঠিকভাবে সংজ্ঞায়িত। ইটি জেনেসের বইটি দেখুন যেখানে তিনি লিখেছেন: "যে সম্ভাবনা কোনও সম্ভাবনা নয় কারণ এটির স্বাভাবিকীকরণ স্বেচ্ছাসেবী।"
নীল জি

3
আপনি দুটি ধরণের সাধারণীকরণকে বিভ্রান্ত করছেন বলে মনে হয়, নীল: জেনেস নয়, একীকরণের মাধ্যমে সাধারণীকরণের কথা উল্লেখ করেছিলেন । θx
হোবার

1
@ হুইবার: আমি মনে করি না যে ক্র্যামার-রাও আবদ্ধের জন্য কোনও স্কেলিং ফ্যাক্টর গুরুত্বপূর্ণ হবে কারণ পরিবর্তন করা লগ-সম্ভাবনার সাথে একটি ধ্রুবক পরিমাণ যুক্ত করে, যা তখন আংশিক ডেরিভেটিভ গ্রহণের পরে অদৃশ্য হয়ে যায়। k
নিল জি

1
আমি নীলের সাথে একমত, আমি এমন কোনও অ্যাপ্লিকেশন দেখছি না যেখানে ধ্রুবক কোনও ভূমিকা রাখে
স্টাফেন লরেন্ট

উত্তর:


13

আপনার তৃতীয় আইটেমটি হ'ল আমি প্রায়শই কঠোর সংজ্ঞা হিসাবে ব্যবহার করি।

অন্যরাও আকর্ষণীয় (+1)। বিশেষত প্রথমটি আবেদনকারী, নমুনার আকারটি (এখনও) সংজ্ঞায়িত হচ্ছে না এমন অসুবিধা সহ, "থেকে" সেটটি সংজ্ঞায়িত করা আরও শক্ত।

আমার কাছে, সম্ভাবনার প্রাথমিক অন্তর্নিহিততা হ'ল এটি মডেলটির ফাংশন + এর পরামিতিগুলি, এলোমেলো ভেরিয়েবলগুলির ফাংশন নয় (শিক্ষার উদ্দেশ্যগুলির জন্যও গুরুত্বপূর্ণ বিষয়)। সুতরাং আমি তৃতীয় সংজ্ঞা আটকে থাকব।

স্বরলিপি অপব্যবহারের উত্স হ'ল সম্ভাবনাটির "থেকে" সেটটি অন্তর্নিহিত, যা সাধারণত সংজ্ঞায়িত ফাংশনগুলির ক্ষেত্রে হয় না। এখানে, সর্বাধিক কঠোর দৃষ্টিভঙ্গি হ'ল রূপান্তরিত হওয়ার পরে, সম্ভাবনাটি অন্য মডেলের সাথে সম্পর্কিত। এটি প্রথমটির সমান, তবে আরও একটি মডেল। সুতরাং সম্ভাবনা স্বরলিপিটি দেখানো উচিত এটি কোন মডেলটিকে বোঝায় (সাবস্ক্রিপ্ট বা অন্য দ্বারা)। আমি অবশ্যই এটি কখনও করি না, তবে শিক্ষার জন্য, আমি সম্ভবত।

অবশেষে, আমার পূর্ববর্তী উত্তরগুলির সাথে সামঞ্জস্য রাখতে আমি আপনার শেষ সূত্রে " সম্ভাবনা" বলি ।θ


ধন্যবাদ। এবং গুণগত ধ্রুবক পর্যন্ত সমতা সম্পর্কে আপনার পরামর্শ কী?
স্টাফেন লরেন্ট

সংজ্ঞাটিতে হার্ড কোডের চেয়ে প্রয়োজনে ব্যক্তিগতভাবে আমি এটি কল করতে পছন্দ করি। এবং মনে করুন যে মডেল নির্বাচন / তুলনা করার জন্য এই 'আপ-টু-এ-একটি-গুণক-ধ্রুবক' সাম্যতা ধরে রাখে না।
gui11aume

ঠিক আছে. নামটি সম্পর্কিত, আপনি দুটি সম্ভাব্য পর্যবেক্ষণের জন্য এবং সম্ভাবনাগুলি সম্পর্কে আলোচনা করার কথা কল্পনা করতে পারেন । এই জাতীয় ক্ষেত্রে, আপনি কি " পর্যবেক্ষণের সময় এর সম্ভাবনা ", বা " পর্যবেক্ষণের " সম্ভাবনা "বা অন্য কিছু ? এল ( θ x 2 ) θ x 1 θ x 1L(θx1)L(θx2)θx1θx1
স্টাফেন লরেন্ট

1
আপনি যদি সঙ্গে আপনার মডেল পুনরায় parametrize আপনি আসলে ফাংশন একটি রচনা যেমন সম্ভাবনা গনা যেখানে । এই ক্ষেত্রে, থেকে যায় থেকে তাই সম্ভাবনা সংজ্ঞার সেট (সেট "থেকে" হিসেবে উল্লেখ করেছে) আর একই। আপনিই প্রথম ফাংশন বলতে পেরেছিলাম এবং দ্বিতীয় কারণ তারা একই ফাংশন নয়। এল ( | x ) g ( ) g ( y ) = y 2 g আর আর + এল 1 ( | এল ) 2 ( | )ϕ=θ2L(.|x)g(.)g(y)=y2gRR+L1(.|)L2(.|)
gui11aume

1
তৃতীয় সংজ্ঞাটি কীভাবে কঠোর? এবং নমুনা আকার সংজ্ঞায়িত না হওয়ায় সমস্যা কী? যেহেতু আমরা যা প্রাকৃতিকভাবে স্যাম্পল স্পেস for for জন্য একটি অনুরূপ সিগমা বীজগণিত নিয়ে আসে , কেন আমরা সম্ভাবনার জন্য সমান্তরাল সংজ্ঞা রাখতে পারি না? Ω nP(x1,x2,,xnθ)Ωn
নিল জি

8

আমি মনে করি আমি একে অন্যরকম বলব। সম্ভাবনা জন্য প্যারামিটারের মান দেওয়া পর্যবেক্ষিত এক্স সম্ভাব্যতা ঘনত্ব হয় একটি ফাংশন হিসাবে প্রকাশ জন্য দেওয়া । আমি আনুপাতিকতা ধ্রুবক সম্পর্কে মতামত ভাগ না। আমি মনে করি কারণ সম্ভাবনা কোন একঘেয়ে ফাংশন maximizing জন্য একই সমাধান দেয় যে শুধুমাত্র খেলার মধ্যে আসে । সুতরাং আপনি বৃদ্ধি করতে পারেন জন্য যেমন বা অন্যান্য একঘেয়ে ফাংশন যা সাধারণভাবে সম্পন্ন করা হয়।θ x θ সি এল ( θx ) সি > 0 লগ ( এল ( θx ) )θθxθcL(θx)c>0log(L(θx))


4
কেবলমাত্র সর্বাধিকীকরণ নয়: আপ-টু-আনুপাতিকতাও সম্ভাবনা অনুপাত ধারণায় এবং বায়েসীয় পরিসংখ্যানের বেয়েসের সূত্রে কার্যকর হয়
স্টাফেন লরেন্ট

আমি ভেবেছিলাম যে কেউ আমার উত্তরকে কমিয়ে দিতে পারে। তবে আমি মনে করি যে সম্ভাবনাকে কোনও প্রবণতা হিসাবে অভিহিত না করে এটিকে সম্ভাব্যতার একটি নির্দিষ্ট সম্ভাবনা হিসাবে সংজ্ঞায়িত করা যথেষ্ট যুক্তিসঙ্গত। প্রিরিয়ারদের সম্পর্কে আপনার মন্তব্যে @ স্টাফেনলরেন্ট, যদি ফাংশনটি সংহত হয় তবে এটি ঘনত্বকে স্বাভাবিক করা যেতে পারে। উত্তরবর্তী পূর্বের সম্ভাবনার সময়ের সাথে সমানুপাতিক। যেহেতু পূর্ববর্তীটি অবশ্যই একটি অবিচ্ছেদ্য দ্বারা বিভাজন দ্বারা স্বাভাবিক করা উচিত আমরা বন্টন হওয়ার আগে পূর্বটি নির্দিষ্ট করতে পারি। এটি কেবল বর্ধিত অর্থেই এটি অনুচিত প্রিয়ারদের জন্য প্রযোজ্য।
মাইকেল আর চেরনিক

1
আমি কেন পুরোপুরি নিশ্চিত নই যে কেন কেউ এই উত্তরটিকে হ্রাস করবেন । দেখে মনে হচ্ছে আপনি প্রথমটির চেয়ে ওপি-র দ্বিতীয় এবং প্রশ্নের আরও উত্তর দেওয়ার চেষ্টা করছেন। সম্ভবত এটি অন্য পাঠকদের পক্ষে সম্পূর্ণ পরিষ্কার ছিল না। চিয়ার্স। :)
কার্ডিনাল

@ মিশেল আমি এই উত্তরটিও হ্রাস করার প্রয়োজন দেখছি না। নন-ইনফরমটিভ প্রিয়ারদের নিয়ে (এটিই আবার একটি আলোচনার বিষয় এবং) আমি এই বিষয়টি সম্পর্কে একটি নতুন ডিস্কসন খুলতে চাই। আমি শীঘ্রই এটি করব না, কারণ ইংরেজি নিয়ে আমার পক্ষে সহজ নয়, এবং এটি আমার পক্ষে গণিতের চেয়ে "দর্শন" লেখা আরও কঠিন difficult
স্টাফেন লরেন্ট

1
@ স্টাফেন: আপনি চাইলে দয়া করে আপনার অন্য প্রশ্নটি সরাসরি ফরাসি ভাষায় পোস্ট করার বিষয়টি বিবেচনা করুন। এই সাইটে আমাদের বেশ কয়েকটি দেশীয় ফরাসি স্পিকার রয়েছে যা সম্ভবত আপনি যে সম্পর্কে নিশ্চিত না তা কোনও প্যাসেজ অনুবাদ করতে সহায়তা করবে। এতে একজন মডারেটর এবং একেবারে শীর্ষ ইংরেজি-ভাষার পরিসংখ্যান জার্নালের একটি সম্পাদকও রয়েছে। আমি প্রশ্নের অপেক্ষায় রয়েছি।
কার্ডিনাল

6

কঠোর গাণিতিক সংজ্ঞা দেওয়ার চেষ্টা এখানে করা হয়েছে:

যাক একটি র্যান্ডম ভেক্টর যা ঘনত্ব স্বীকার হতে কিছু পরিমাপ থেকে সম্মান সঙ্গে উপর , যেখানে জন্য , উপর ঘনত্বের একটি পরিবার থেকে সম্মান সঙ্গে । তারপর, কোন জন্য আমরা সম্ভাবনা ফাংশন নির্ধারণ হতে ; স্পষ্টতার জন্য, প্রতিটি আমাদের কাছে । এক মনে করতে পারেন একটি নির্দিষ্ট সম্ভাব্য হতে( x | θ 0 ) ν আর এন θ Θ ΘX:ΩRnf(x|θ0)νRnθΘ{f(x|θ):θΘ}RnνxRnL(θ|x)f(x|θ)xLx:ΘRxxobs এবং true "সত্য" মান ।θ0θ

এই সংজ্ঞা সম্পর্কে কয়েকটি পর্যবেক্ষণ:

  1. সংজ্ঞাটি বিচ্ছিন্ন, অবিচ্ছিন্ন এবং জন্য বিতরণের অন্যান্য ধরণের পরিবারকে পরিচালনা করতে যথেষ্ট শক্ত ।X
  2. সম্ভাব্যতা বিতরণ / ব্যবস্থাপনার স্তরের পরিবর্তে আমরা ঘনত্বের কার্যগুলির স্তরে সম্ভাবনাটি সংজ্ঞায়িত করছি। এর কারণ হ'ল ঘনত্বগুলি অনন্য নয়, এবং দেখা গেছে যে এটি এমন পরিস্থিতি নয় যেখানে কেউ ঘনত্বের সমতুল্য শ্রেণিতে যেতে পারে এবং এখনও নিরাপদ থাকতে পারে: ঘনত্বের বিভিন্ন পছন্দ অবিচ্ছিন্ন ক্ষেত্রে বিভিন্ন এমএলই'র দিকে পরিচালিত করে। তবে বেশিরভাগ ক্ষেত্রে ঘনত্বের পরিবারের একটি প্রাকৃতিক পছন্দ রয়েছে যা তাত্ত্বিকভাবে পছন্দসই।
  3. আমি এই সংজ্ঞাটি পছন্দ করি কারণ এটি আমাদের সাথে যে র্যান্ডম ভেরিয়েবলগুলি নিয়ে কাজ করছে তা অন্তর্ভুক্ত করে এবং ডিজাইনের মাধ্যমে যেহেতু তাদের একটি বিতরণ বরাদ্দ করতে হয়, তাই আমরা এখানে কঠোরভাবে "সত্য কিন্তু অজানা" মানের ধারণাটিও তৈরি করেছি here চিহ্নিত । আমার কাছে, একজন ছাত্র হিসাবে, সম্ভাবনা সম্পর্কে কঠোর হওয়ার চ্যালেঞ্জ সর্বদা ছিল কীভাবে গণিতের সাথে "সত্য" এবং "পর্যবেক্ষণ" the এর বাস্তব বিশ্ব ধারণার সাথে মিলিত করা যায় ; প্রশিক্ষকদের এই দাবিটি প্রায়শই সহায়তা করা হয়নি যে এই ধারণাগুলি প্রথাগত ছিল না তবে তারপরে ঘুরিয়ে দিয়ে এবং জিনিস প্রমাণ করার সময় এগুলিকে আনুষ্ঠানিকভাবে ব্যবহার করে! সুতরাং আমরা তাদের সাথে এই সংজ্ঞাটি আনুষ্ঠানিকভাবে মোকাবিলা করি।θθ0θxobs
  4. সম্পাদনা: অবশ্যই, আমরা সাধারণ এলোমেলো উপাদান , এবং এবং এই সংজ্ঞা অনুসারে কঠোরতার সাথে কোনও সত্যিকারের সমস্যা নেই যতক্ষণ আপনি সাবধান হন (বা এমনকি যদি আপনি না হন তবে সেই স্তরের কঠোরতা আপনার পক্ষে গুরুত্বপূর্ণ নয়)L(θ|X)S(θ|X)I(θ|X)

4
@ অভিন্ন হতে দিন । দুটি ঘনত্ব বিবেচনা করুন বনাম । উভয় এবং বৈধ ঘনত্বের জন্য কিন্তু অধীনে MLE বিদ্যমান এবং সমান যেহেতু অধীনে আমরা আছে তাই যে আপনি যদি সেট করেন তবে আপনি সম্ভাবনাটি শেষ করেন এবং বাস্তবে এমএলই বিদ্যমান নেই কারণX1,...,Xn(0,θ)f1(x)=θ1I[0<x<θ]f2(x)=θ1I[0xθ]f1f2U(0,θ)f2maxXif1jf1(xj|maxxi)=0θ^=maxXi0supθjf1(x|θ) কোনও হয় নি । θ
লোক

1
@ গুই: ধন্যবাদ, আমি এই আকর্ষণীয় পাল্টা উদাহরণ সম্পর্কে জানতাম না।
শি'আন

1
@guy আপনি বলেছিলেন যে কোন সাধিত না হয় । যাইহোক, নীচে দেখানোর সাথে সাথে এই পর্যায়ে : যেখানে । আমি ধরে নিচ্ছি যে সমস্ত । এটি দেখতে সহজ হয় যে ১ টি। , যদি ; ২. , যদি । অবিরত ...supθjf1(xj|θ)θ
L1(θ;x)=j=1nf1(xj|θ)=θnj=1nI(0<xj<θ)=θnI(0<M<θ),
M=max{x1,,xn}xj>0j=1,,nL1(θ;x)=00<θML1(θ;x)=θnM<θ<
আলেকজান্দ্রে প্যাট্রিয়োটা

1
@ গুই: অব্যাহত ... যা, সকলের জন্য । আমাদের সর্বোচ্চ মান নেই তবে সুপ্রিমাম বিদ্যমান এবং এটি does এবং যুক্তিটি সম্ভবত, সাধারণ অ্যাসিম্পটিকগুলি এখানে প্রয়োগ করা হয় না এবং কিছু অন্যান্য টোল ব্যবহার করা উচিত। তবে, এর বিদ্যমান বা আমি কিছু খুব প্রাথমিক ধারণাটি মিস করেছি।
L1(θ;x)[0,Mn),
θ(0,)
supθ(0,)L1(θ,x)=Mn
M=argsupθ(0,)L1(θ;x).
L1(θ;x)
আলেকজান্দ্রে প্যাট্রিয়োটা

1
@ আলেকজান্দ্রেপাত্রোটা সুপরিম উপস্থিত রয়েছে, স্পষ্টতই, তবে এটি কার্য দ্বারা প্রাপ্ত হয় নি। আমি নিশ্চিত নই কি স্বরলিপি গড় অনুমিত হয় - কোন যুক্তি নেই যা উৎপাদ কারণ । MLE কোন হিসাবে সংজ্ঞায়িত করা হয় যা attains (সাধারণত) এবং কোন লাভ এখানে। স্পষ্টতই এর চারপাশে উপায় রয়েছে - অ্যাসেম্পটিকগুলি আমাদের প্রয়োজনীয়তার জন্য অনুরোধ করে যে এরূপ এবং এই জাতীয় বৈশিষ্ট্যগুলির সম্ভাবনা রয়েছে এবং সেখানে রয়েছে। এটা শুধু বদলে ।এল 1 ( θ ; এক্স ) চুমুক দিয়া পান এল 1 ( θ ; এম ) = 0 θ চুমুক দিয়া পান θ চুমুক দিয়া পান এল 2 এল 1argsupL1(θ;x)supL1(θ;M)=0θ^supθ^supL2L1
লোক
আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.