আমি বর্তমানে একটি চিত্র বিভাজন সমস্যার জন্য ভিটারবি প্রশিক্ষণ ব্যবহার করছি । আমি জানতে চেয়েছিলাম ভিটারবি প্রশিক্ষণের পরিবর্তে বাউম-ওয়েলচ অ্যালগরিদম ব্যবহারের সুবিধা / অসুবিধাগুলি কী।
আমি বর্তমানে একটি চিত্র বিভাজন সমস্যার জন্য ভিটারবি প্রশিক্ষণ ব্যবহার করছি । আমি জানতে চেয়েছিলাম ভিটারবি প্রশিক্ষণের পরিবর্তে বাউম-ওয়েলচ অ্যালগরিদম ব্যবহারের সুবিধা / অসুবিধাগুলি কী।
উত্তর:
বাউম-ওয়েলচ অ্যালগরিদম এবং ভিটারবি অ্যালগরিদম বিভিন্ন জিনিস গণনা করে।
আপনি যদি আপনার মডেলের লুকানো অংশের জন্য রূপান্তর সম্ভাবনাগুলি এবং আপনার মডেলের দৃশ্যমান আউটপুটগুলির জন্য নির্গমন সম্ভাবনাগুলি জানেন, তবে ভিটারবি অ্যালগরিদম আপনাকে আউটপুট এবং আপনার মডেল স্পেসিফিকেশন উভয়কে শর্তাধীন শর্তযুক্ত গোপনীয় অবস্থার সম্পূর্ণ সিকোয়েন্স দেয় ।
বাউম-ভেলচ অ্যালগরিদম আপনাকে সবচেয়ে সম্ভবত লুকানো রূপান্তর সম্ভাবনা উভয়ই দেয় এবং কেবলমাত্র মডেলের নিরীক্ষিত রাজ্যগুলির (এবং সাধারণত লুকানো রাজ্যের সংখ্যার উপরের একটি আবদ্ধ) প্রদত্ত নির্গমন সম্ভাবনার সেটগুলি উভয়ই দেয়। আপনি গোপনীয় অবস্থাগুলিতে "পয়েন্টওয়াইজ" সর্বোচ্চ সম্ভাবনা পয়েন্টগুলিও পান যা সামগ্রিকভাবে সম্ভবত একক লুকানো ক্রম থেকে কিছুটা পৃথক হয়।
আপনি যদি নিজের মডেলটি জানেন এবং কেবল সুপ্ত রাষ্ট্রগুলি চান তবে বাম-ওয়েলচ অ্যালগরিদম ব্যবহার করার কোনও কারণ নেই। আপনি যদি নিজের মডেলটি জানেন না, তবে আপনি ভিটারবি অ্যালগরিদম ব্যবহার করতে পারবেন না।
যুক্ত করতে সম্পাদিত: পিটার স্মিটের মন্তব্য দেখুন; নামকরণে কিছুটা ওভারল্যাপ / অস্পষ্টতা রয়েছে। কিছু লোক আমাকে তুচ্ছ করে তুলেছিল আমাকে "প্যাটার্ন রিকগনিশন অ্যান্ড ইমেজ অ্যানালাইসিস" (আইএসবিএন 978-3-540-40217-6, পিপি 845-857) এর লুই জ্যাভিয়ার রদ্রিগেজ এবং ইনস টোরেসের একটি অধ্যায়ে নিয়ে গিয়েছিল যা স্পিডের বিপরীতে যথাযথ ট্রেড-অফ নিয়ে আলোচনা করে দুটি অ্যালগরিদম।
সংক্ষেপে, বাউম-ওয়েলচ অ্যালগরিদম মূলত প্রত্যাশা-ম্যাক্সিমাইজেশন (ইএম) অ্যালগরিদম একটি এইচএমএম প্রয়োগ করা হয়; কঠোর ইএম-টাইপ অ্যালগরিদম হিসাবে আপনি কমপক্ষে স্থানীয় সর্বাধিক সর্বাধিক রূপান্তরিত হওয়ার গ্যারান্টিযুক্ত, এবং তাই সর্বমোট সমস্যার জন্য এমএলই খুঁজে পান। যদিও প্রতিটি পদক্ষেপের জন্য এটি আপনার ডেটার উপর দিয়ে দুটি পাসের প্রয়োজন, এবং ডেটা দৈর্ঘ্য এবং প্রশিক্ষণের নমুনার সংখ্যায় জটিলতা অনেক বড় হয়ে যায়। তবে, আপনি আপনার লুকানো প্যারামিটারগুলির জন্য সম্পূর্ণ শর্তাধীন সম্ভাবনাটি শেষ করেন।
ভিটার্বি প্রশিক্ষণ অ্যালগরিদম ("বিতর্বি অ্যালগরিদম" এর বিপরীতে) নির্ভুলতার ব্যয়ে গতি অর্জনের জন্য এমএলই-এর কাছাকাছি। এটি ডেটাটিকে বিভাগ করে এবং তারপরে বিভাগটিতে সর্বাধিক সম্ভাব্য রাষ্ট্রীয় ক্রম পেতে ভিটারবি অ্যালগরিদম প্রয়োগ করে (যেমন আমি এটি বুঝতে পেরেছি), তারপরে লুকানো প্যারামিটারগুলির পুনরায় অনুমান করার জন্য সম্ভবত এটি সম্ভবত রাষ্ট্রের ক্রম ব্যবহার করে। এটি, বাউম-ওয়েলচ অ্যালগরিদমের বিপরীতে, লুকানো প্যারামিটারগুলির সম্পূর্ণ শর্তসাপেক্ষ সম্ভাবনা দেয় না এবং তাই উল্লেখযোগ্য (অধ্যায়ের 1 থেকে 2 ক্রমের দৈর্ঘ্যের অধ্যায়টি রিপোর্ট করে) সংরক্ষণের সময় নির্ভুলতা হ্রাস করে।
আপনি যখন 'অদৃশ্য জিনিস' গণনা করতে চান তখন ফরোয়ার্ড-পশ্চাদপটে ব্যবহার করা হয়। উদাহরণস্বরূপ, নিরীক্ষণযোগ্য ডেটার মাধ্যমে কোনও মডেল উন্নত করতে EM ব্যবহার করার সময়। আমি মনে করি পেট্রোভের কাগজটি একটি উদাহরণ। আমি যে কৌশলটির কথা ভাবছি তার মধ্যে আপনি প্রথমে মোটামুটি মোটা মোছার টীকাগুলি (যেমন 'ভার্ব' এর জন্য ট্যাগ) দিয়ে টীকাগুলি ডেটা সহ একটি মডেলকে প্রশিক্ষণ দিন। তারপরে আপনি ইচ্ছামতভাবে সেই রাষ্ট্রের সম্ভাবনা ভরকে দুটি সামান্য অসম পরিমাণে বিভক্ত করুন এবং পুনরায় প্রশিক্ষণ করুন এবং দুটি রাজ্যের মধ্যে ভর পুনরায় বিতরণ করে সম্ভাবনা সর্বাধিকতর করতে এগিয়ে-পিছনে ছুটে যাবেন।