প্রশ্ন ট্যাগ «maximum-likelihood»

প্রদত্ত নমুনা পর্যালোচনা করার সম্ভাবনাটিকে অনুকূল করে যে পরামিতি মানটি বেছে নিয়ে একটি পরিসংখ্যানগত মডেলের পরামিতিগুলির অনুমানের একটি পদ্ধতি।

2
নতুন পর্যবেক্ষণ প্রবাহ হিসাবে এমএলইটিকে পুনরাবৃত্তভাবে আপডেট করা হচ্ছে
সাধারণ প্রশ্ন বলুন যে আমাদের কাছে আইডির ডেটা রয়েছে x1x1x_1 , x2x2x_2 , ... স্ট্রিমিং। আমরা পুনরাবৃত্তভাবে the এর সর্বাধিক সম্ভাবনা অনুমানটি গণনা করতে চাই । এটি হ'ল, গণনা করা আমরা একটি নতুন x_n পর্যবেক্ষণ করি এবং একরকমভাবে আমাদের অনুমান \ টুপি sy \ বোল্ডসাইম্বল {\ থিতা} update আপডেট করতে …

5
কোনও এম-এসিমেটরের অভিজ্ঞতামূলক হেসিয়ান কি অনির্দিষ্ট হতে পারে?
জেফ্রি ওয়াল্ড্রিজ তার ক্রোনার বিভাগ এবং প্যানেল ডেটার একনোমেট্রিক বিশ্লেষণে (পৃষ্ঠা 357) বলেছেন যে অনুশীলনমূলক হেসিয়ান "যে নির্দিষ্ট নমুনার সাথে আমরা কাজ করছি তার জন্য ইতিবাচক নির্দিষ্ট বা এমনকি ইতিবাচক অর্ধসীমা হওয়ার নিশ্চয়তা নেই"। এটি আমার কাছে (সংখ্যাগত সমস্যাগুলি বাদ দিয়ে) ভুল বলে মনে হচ্ছে এম-এসিমেটরের সংজ্ঞা হিসাবে প্যারামিটারের মান …

6
আমরা কি কখনই সর্বোচ্চ সম্ভাবনার প্রাক্কলন ব্যবহার করি?
আমি ভাবছি সর্বাধিক সম্ভাবনার প্রাক্কলনটি কখনই পরিসংখ্যানগুলিতে ব্যবহৃত হয়। আমরা এটির ধারণাটি শিখি তবে অবাক হয় কখন এটি প্রকৃতপক্ষে ব্যবহৃত হয়। আমরা যদি ডেটার বন্টন ধরে নিই, আমরা দুটি পরামিতি পাই, একটি গড়ের জন্য এবং একটি ভেরিয়েন্সের জন্য, তবে আপনি কি বাস্তবে এটি বাস্তব পরিস্থিতিতে ব্যবহার করেন? কেউ কি আমাকে …

2
কোন মডেলগুলির জন্য এমএলইয়ের পক্ষপাতিত্ব তারতম্যের চেয়ে দ্রুত পড়ে?
θ^\hat\thetaθ∗\theta^*nn‖ Θ - θ * ‖ ∥θ^−θ∗∥\lVert\hat\theta-\theta^*\rVertহে ( 1 / √এন )O(1/n−−√)O(1/\sqrt n)‖ই θ -θ*‖∥Eθ^−θ∗∥\lVert \mathbb E\hat\theta - \theta^*\rVert‖Eˆθ−ˆθ‖∥Eθ^−θ^∥\lVert \mathbb E\hat\theta - \hat\theta\rVertO(1/√n)O(1/n−−√)O(1/\sqrt{n}) আমি চেয়ে দ্রুত সঙ্কোচিত এমন মডেলগুলিতে আগ্রহী , তবে যেখানে ত্রুটিটি এই দ্রুত হারে সঙ্কুচিত হয় না কারণ বিচ্যুতিটি এখনও হিসাবে সঙ্কুচিত হয় । বিশেষত, আমি কোনও …

1
পূর্ণ কলামের চেয়ে কম সংখ্যার সাথে সীমাবদ্ধ সর্বাধিক সম্ভাবনা
এই প্রশ্নটি লিনিয়ার মডেলের একটি নির্দিষ্ট সংস্করণে সীমাবদ্ধ সর্বাধিক সম্ভাবনার (আরএমএল) অনুমানের সাথে সম্পর্কিত, যথা: Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)),Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), যেখানে হ'ল একটি ( ) ম্যাট্রিক্স প্যারামেট্রাইজড , যেমন । হ'ল উপদ্রব পরামিতিগুলির একটি অজানা ভেক্টর; সুদ আনুমানিক হিসাব রয়েছে , এবং আমরা আছে ট …

1
কেন আমরা বিভিন্ন টপোলজিতে বিভিন্ন অনুমানকারীর রূপান্তর আচরণগুলি আলোচনা করব?
অ্যালজেব্রিক জ্যামিতি এবং পরিসংখ্যান লার্নিং থিওরি বইয়ের প্রথম অধ্যায়ে যা বিভিন্ন কার্যকরী স্থানে অনুমানের রূপান্তর সম্পর্কে কথা বলেছে, তাতে উল্লেখ করা হয়েছে যে বায়েসীয় অনুমানটি শোয়ার্জ বন্টন টোপোলজির সাথে মিল রয়েছে, যেখানে সর্বাধিক সম্ভাবনার অনুমানটি সুপার-আদর্শ টপোলজির সাথে মিল রয়েছে (7 পৃষ্ঠায়): উদাহরণস্বরূপ, সুপার-নর্ম, LpLpL^p নরম, হিলবার্ট স্পেসের দুর্বল টপোলজি …

1
ক্যারেট গ্ল্যামনেট বনাম সিভি.glmnet
একটি অনুকূল ল্যাম্বদা অনুসন্ধান করতে এবং একই কাজটি glmnetকরার caretজন্য ব্যবহারের মধ্যে তুলনা করে অনেক বিভ্রান্তি রয়েছে বলে মনে হয় cv.glmnet। অনেক প্রশ্ন উত্থাপিত হয়েছিল, যেমন: শ্রেণিবিন্যাস মডেল ট্রেন.glmnet বনাম cv.glmnet? ক্যারেটের সাথে গ্ল্যামনেট ব্যবহারের সঠিক উপায় কী? `ক্যারেট ব্যবহার করে ক্রস-বৈধকরণ` গ্ল্যামেট` তবে কোনও উত্তর দেওয়া হয়নি, যা প্রশ্নের …

6
এমএলই বনাম এমএপি অনুমান, কখন ব্যবহার করবেন?
এমএলই = সর্বাধিক সম্ভাবনার অনুমান এমএপি = সর্বাধিক একটি পোস্টেরিয়েরি এমএলই স্বজ্ঞাত / নিষ্পাপ যে এটি কেবলমাত্র প্যারামিটারের (যেমন সম্ভাবনা ফাংশন) প্রদত্ত পর্যবেক্ষণের সম্ভাবনার সাথেই শুরু হয় এবং পর্যবেক্ষণের সাথে পরামিতিটির সেরা অনুসারগুলি খুঁজে পাওয়ার চেষ্টা করে । তবে পূর্বের জ্ঞানের বিষয়টি বিবেচনায় নেই। এমএপি আরও যুক্তিসঙ্গত বলে মনে হচ্ছে …

1
লজিস্টিক রিগ্রেশন সম্ভাব্যতা সর্বাধিকীকরণ করা লিনিয়ার মডেলগুলির তুলনায় অগত্যা এওসিও সর্বাধিক করে তোলে?
বাইনারি ফলাফল Y∈ { 0 , 1 }এনy∈{0,1}ny\in\{0,1\}^n এবং কিছু পূর্বাভাসক ম্যাট্রিক্স X∈Rn×pX∈Rn×pX\in\mathbb{R}^{n\times p} সহ একটি ডেটা সেট দেওয়া , মানীয় লজিস্টিক রিগ্রেশন মডেল সহগের βMLEβMLE\beta_{MLE} অনুমান করে যা দ্বিপদী সম্ভাবনা সর্বাধিক করে তোলে। যখন XXX পূর্ণ র‌্যাঙ্ক হয় βMLEβMLE\beta_{MLE} স্বতন্ত্র; নিখুঁত বিচ্ছেদ উপস্থিত না হলে, এটি সীমাবদ্ধ। এই সর্বোচ্চ …

1
কেন পৃথক নমুনার সম্ভাবনা 0 থাকলে এমএলই বুদ্ধি করে?
কিছু পুরানো পরিসংখ্যান পর্যালোচনা করার সময় আমার কাছে এটি ছিল একটি বিচিত্র চিন্তাভাবনা এবং কোনও কারণে আমি উত্তরটি মনে করতে পারি না বলে মনে হয়। একটি অবিচ্ছিন্ন পিডিএফ আমাদের প্রদত্ত যে কোনও রেঞ্জের মানগুলি পর্যবেক্ষণের ঘনত্বকে বলে। উদাহরণস্বরূপ, যদি , উদাহরণস্বরূপ, তবে সম্ভবত একটি উপলব্ধি এবং মধ্যে পড়ে simply যেখানে …

1
ঘনঘনবাদী শর্তসাপেক্ষ অনুগ্রহটি এখনও বাস্তবে ব্যবহৃত হচ্ছে?
আমি সম্প্রতি ন্যান্সি রেড, বার্ডার্ফ-নিলসন, রিচার্ড কক্স এবং হ্যাঁ, ঘন ঘন দৃষ্টান্তের "শর্তসাপেক্ষ অনুমান" ধারণা সম্পর্কে কিছুটা রোনাল্ড ফিশারের কিছু পুরানো কাগজপত্র পর্যালোচনা করেছি, যার অর্থ এই যে উপস্থিতিগুলি কেবলমাত্র বিবেচনার ভিত্তিতে তৈরি হয়েছে নমুনা জায়গার "প্রাসঙ্গিক উপসেট", পুরো নমুনার স্থান নয়। একটি মূল উদাহরণ হিসাবে, এটি টি-স্ট্যাটিস্টিকের উপর ভিত্তি …

1
আনোভা কি মুহুর্তের পদ্ধতির উপর নির্ভর করে এবং সর্বোচ্চ সম্ভাবনার উপর নয়?
আমি বিভিন্ন জায়গায় উল্লেখ করেছি যে আনোভা মুহুর্তের পদ্ধতিটি ব্যবহার করে এর অনুমান করে। আমি এই দৃser়তার সাথে বিভ্রান্ত হয়ে পড়েছি কারণ, যদিও আমি মুহুর্তের পদ্ধতির সাথে পরিচিত নই, তবে আমার বোধগম্যতা এটি সর্বাধিক সম্ভাবনার পদ্ধতির তুলনায় আলাদা কিছু নয়; অন্য দিকে, ANOVA শ্রেণীগত ভবিষ্যতবক্তা এবং রিগ্রেশন প্যারামিটার OLS ঔজ্জ্বল্যের …

3
লিনিয়ার রিগ্রেশন: ওএলএস এবং এমএলইয়ের কোনও অস্বাভাবিক বিতরণ পরিচয় দেয়?
এই প্রশ্নটি এখানে মন্তব্যে দীর্ঘ আলোচনা থেকে অনুপ্রাণিত: লিনিয়ার রিগ্রেশন কীভাবে সাধারণ বিতরণ ব্যবহার করে? সাধারণ লিনিয়ার রিগ্রেশন মডেলটিতে সরলতার জন্য এখানে কেবলমাত্র একজন ভবিষ্যদ্বাণী দিয়ে লেখা হয়: যেখানে পরিচিত ধ্রুবক এবং শূন্য-স্বতন্ত্র ত্রুটি শর্তাবলী। যদি আমরা ত্রুটিগুলির জন্য অতিরিক্ত ধরে নিই, তবে স্বাভাবিকের সর্বনিম্ন স্কোয়ারের অনুমানকারী এবং এর সর্বাধিক …

3
কোনটি সর্বোচ্চ সর্বাধিক সম্ভাবনা বা প্রান্তিক সম্ভাবনা এবং কেন?
রিগ্রেশন করার সময় যদি আমরা এর সংজ্ঞাটি অনুসরণ করি: আংশিক সম্ভাবনা, প্রোফাইল সম্ভাবনা এবং প্রান্তিক সম্ভাবনার মধ্যে পার্থক্য কী? যে, সর্বাধিক সম্ভাবনা সন্ধান করুন L এবং θ যা এল (β, θ | ডেটা) সর্বাধিক করে তোলে । যদিও, প্রান্তিক সম্ভাবনা আমরা equ শর্তসাপেক্ষে distribution এর সম্ভাব্যতা বন্টন সনাক্ত করতে পারি …

1
কাচি বিতরণে অবস্থানের প্যারামিটারের এমএলই
কেন্দ্রের পরে, এক্স এবং twox দুটি পরিমাপ সম্ভাবনা ঘনত্ব ফাংশন সহ একটি কাচী বিতরণ থেকে স্বতন্ত্র পর্যবেক্ষণ বলে ধরে নেওয়া যেতে পারে: 1চ( x : θ ) =f(x:θ)=f(x :\theta) = ,-∞&lt;x&lt;∞ ∞1π( 1 + ( এক্স - θ )2)1π(1+(x−θ)2)1\over\pi (1+(x-\theta)^2) , - ∞ &lt; x &lt; ∞,−∞&lt;x&lt;∞, -∞ < x …

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.