উভয় পদ্ধতির প্রো ও কনস কী?
উভয় পদ্ধতির প্রো ও কনস কী?
উত্তর:
সর্বাধিক সম্ভাবনা অনুমান হিসাবে সংজ্ঞায়িত সম্ভাবনা ফাংশনসর্বাধিক করে পরিসংখ্যান মডেলগুলিতে পরামিতি অনুমানের একটি সাধারণ পদ্ধতির
যে, ডাটা পাওয়ার সম্ভাব্যতা প্যারামিটারের কিছু মান দেওয়া θ । একটি প্রদত্ত সমস্যা আপনি এই ধরনের জন্য চেহারা করতে সম্ভাবনা ফাংশন জানা θ যে ডেটা আপনার আছে পাওয়ার সম্ভাব্যতা করা সম্ভব হয়। কখনও কখনও আমরা অনুমানকারীগুলি জানি, যেমন পাটিগণিত গড়টি সাধারণ বন্টনের জন্য μ প্যারামিটারের জন্য একটি এমএলই অনুমানক তবে অন্যান্য ক্ষেত্রে আপনি বিভিন্ন পদ্ধতি ব্যবহার করতে পারেন যা অপ্টিমাইজেশন অ্যালগরিদমগুলি ব্যবহার করে। এমএল পদ্ধতির আপনাকে θ এর সর্বোত্তম মানটি কীভাবে সন্ধান করতে হয় তা বলে না - আপনি কেবল অনুমান করতে পারেন এবং কোন অনুমানটি ভাল ছিল তা তুলনা করার সম্ভাবনাটি ব্যবহার করতে পারেন - এটি কেবল আপনাকে কীভাবে তুলনা করতে পারে তা আপনাকে বলে মান যদি পারেন তবে "আরো সম্ভবত" অন্য চেয়ে নেই।
গ্রেডিয়েন্ট বংশদ্ভুত একটি অপ্টিমাইজেশন অ্যালগরিদম । আপনিবিভিন্ন বিভিন্ন ফাংশনেরন্যূনতম (বা সর্বাধিক, তারপরে একে গ্রেডিয়েন্ট অ্যাসেন্ট )নামে সন্ধান করতে এই অ্যালগরিদমটি ব্যবহার করতে পারেন। অ্যালগরিদমটি যে ফাংশনটি হ্রাস করে তা আসলেই যত্ন করে না, এটি যা চাওয়া হয়েছিল তা করে। সুতরাং অপ্টিমাইজেশন অ্যালগরিদম ব্যবহার করে আপনাকে কোনওভাবে জানতে হবে কীভাবে আপনি কীভাবে বলতে পারবেন যদি আগ্রহের প্যারামিটারের একটি মান অন্যটির চেয়ে "ভাল" হয়। হ্রাস করতে আপনাকে আপনার অ্যালগরিদমকে কিছু ফাংশন সরবরাহ করতে হবে এবং অ্যালগরিদম এর সর্বনিম্ন সন্ধান করার জন্য ডিল করবে।
আপনি বিভিন্ন পদ্ধতি ব্যবহার করে এবং একটি অপ্টিমাইজেশন অ্যালগরিদম ব্যবহার করে সর্বাধিক সম্ভাবনার প্রাক্কলন অর্জন করতে পারেন সেগুলির মধ্যে একটি। অন্যদিকে, গ্রেডিয়েন্ট বংশোদ্ভূত সম্ভাবনা ফাংশন ব্যতীত অন্য কার্যগুলি সর্বাধিক করতে ব্যবহৃত হতে পারে।
f
তবে লজিস্টিক রিগ্রেশন এর সম্ভাবনা এইভাবে কোনও ক্লোজড ফর্ম সমাধান করে না। সুতরাং আমাদের অন্যান্য পদ্ধতি ব্যবহার করতে হবে, যেমন gradient descent
।
likelihood function
+ gradient descent
(যা সম্ভাবনা ফাংশনের সমাধান পেতে) ব্যবহার করা এখনও এমএলই করার একটি উপায়।
Unlike linear regression, we can no longer write down the MLE in closed form. Instead, we need to use an optimization algorithm to compute it. For this, we need to derive the gradient and Hessian.
মেশিন লার্নিং থেকেও দেখতে পাবেন : একটি সম্ভাব্য দৃষ্টিভঙ্গি, কেভিন মারফি।