বাউম-ওয়েলচ অ্যালগরিদম এবং ভিটারবি প্রশিক্ষণের মধ্যে পার্থক্য কী?


18

আমি বর্তমানে একটি চিত্র বিভাজন সমস্যার জন্য ভিটারবি প্রশিক্ষণ ব্যবহার করছি । আমি জানতে চেয়েছিলাম ভিটারবি প্রশিক্ষণের পরিবর্তে বাউম-ওয়েলচ অ্যালগরিদম ব্যবহারের সুবিধা / অসুবিধাগুলি কী।


3
'ভিটર્বি প্রশিক্ষণ' বলতে কী বোঝ?
bmargulies

2
আমার সমস্যায় আমার কাছে সত্যিকারের মূল্যবান ডেটার একটি অ্যারে রয়েছে যা আমি এইচএমএম হিসাবে মডেলিং করছি (স্পষ্টতই একাধিক ঘনত্বের মিশ্রণ যা প্রতিটি অজানা পরামিতি সহ)। আপাতত আমি ধরে নিয়েছি যে আমি রাষ্ট্রের স্থানান্তরের সম্ভাব্যতাগুলি জানি। ভিটারবি ট্রিনিগ বলতে আমি কী বোঝাতে চাইছি তা হল নীচের অ্যালগরিদম। 1) নির্বিচারে প্রতিটি ডেটা পয়েন্টে একটি রাষ্ট্র নির্ধারণ করুন (সূচনা) 2) ঘনত্ব ফাংশন পরামিতিগুলির এমএলই সম্পাদন করুন। 3) প্রতিটি পয়েন্টের জন্য পুনরায় প্রাক্কলন স্থিতি (ভিটারবি আলগ দিয়ে করা যেতে পারে)। 4) ধাপ 2 যান এবং স্টপিং মানদণ্ড পূরণ না হলে পুনরাবৃত্তি।
ডিজিটাল গাল

1
একই প্রশ্নটি স্ট্যাক ওভারফ্লোতে জিজ্ঞাসা করা হয়েছিল: ভিটারবি প্রশিক্ষণ বনাম বাউম-ওয়েলচ অ্যালগরিদম
ফ্রাঙ্ক ডারননকোর্ট

উত্তর:


21

বাউম-ওয়েলচ অ্যালগরিদম এবং ভিটারবি অ্যালগরিদম বিভিন্ন জিনিস গণনা করে।

আপনি যদি আপনার মডেলের লুকানো অংশের জন্য রূপান্তর সম্ভাবনাগুলি এবং আপনার মডেলের দৃশ্যমান আউটপুটগুলির জন্য নির্গমন সম্ভাবনাগুলি জানেন, তবে ভিটারবি অ্যালগরিদম আপনাকে আউটপুট এবং আপনার মডেল স্পেসিফিকেশন উভয়কে শর্তাধীন শর্তযুক্ত গোপনীয় অবস্থার সম্পূর্ণ সিকোয়েন্স দেয় ।

বাউম-ভেলচ অ্যালগরিদম আপনাকে সবচেয়ে সম্ভবত লুকানো রূপান্তর সম্ভাবনা উভয়ই দেয় এবং কেবলমাত্র মডেলের নিরীক্ষিত রাজ্যগুলির (এবং সাধারণত লুকানো রাজ্যের সংখ্যার উপরের একটি আবদ্ধ) প্রদত্ত নির্গমন সম্ভাবনার সেটগুলি উভয়ই দেয়। আপনি গোপনীয় অবস্থাগুলিতে "পয়েন্টওয়াইজ" সর্বোচ্চ সম্ভাবনা পয়েন্টগুলিও পান যা সামগ্রিকভাবে সম্ভবত একক লুকানো ক্রম থেকে কিছুটা পৃথক হয়।

আপনি যদি নিজের মডেলটি জানেন এবং কেবল সুপ্ত রাষ্ট্রগুলি চান তবে বাম-ওয়েলচ অ্যালগরিদম ব্যবহার করার কোনও কারণ নেই। আপনি যদি নিজের মডেলটি জানেন না, তবে আপনি ভিটারবি অ্যালগরিদম ব্যবহার করতে পারবেন না।

যুক্ত করতে সম্পাদিত: পিটার স্মিটের মন্তব্য দেখুন; নামকরণে কিছুটা ওভারল্যাপ / অস্পষ্টতা রয়েছে। কিছু লোক আমাকে তুচ্ছ করে তুলেছিল আমাকে "প্যাটার্ন রিকগনিশন অ্যান্ড ইমেজ অ্যানালাইসিস" (আইএসবিএন 978-3-540-40217-6, পিপি 845-857) এর লুই জ্যাভিয়ার রদ্রিগেজ এবং ইনস টোরেসের একটি অধ্যায়ে নিয়ে গিয়েছিল যা স্পিডের বিপরীতে যথাযথ ট্রেড-অফ নিয়ে আলোচনা করে দুটি অ্যালগরিদম।

সংক্ষেপে, বাউম-ওয়েলচ অ্যালগরিদম মূলত প্রত্যাশা-ম্যাক্সিমাইজেশন (ইএম) অ্যালগরিদম একটি এইচএমএম প্রয়োগ করা হয়; কঠোর ইএম-টাইপ অ্যালগরিদম হিসাবে আপনি কমপক্ষে স্থানীয় সর্বাধিক সর্বাধিক রূপান্তরিত হওয়ার গ্যারান্টিযুক্ত, এবং তাই সর্বমোট সমস্যার জন্য এমএলই খুঁজে পান। যদিও প্রতিটি পদক্ষেপের জন্য এটি আপনার ডেটার উপর দিয়ে দুটি পাসের প্রয়োজন, এবং ডেটা দৈর্ঘ্য এবং প্রশিক্ষণের নমুনার সংখ্যায় জটিলতা অনেক বড় হয়ে যায়। তবে, আপনি আপনার লুকানো প্যারামিটারগুলির জন্য সম্পূর্ণ শর্তাধীন সম্ভাবনাটি শেষ করেন।

ভিটার্বি প্রশিক্ষণ অ্যালগরিদম ("বিতর্বি অ্যালগরিদম" এর বিপরীতে) নির্ভুলতার ব্যয়ে গতি অর্জনের জন্য এমএলই-এর কাছাকাছি। এটি ডেটাটিকে বিভাগ করে এবং তারপরে বিভাগটিতে সর্বাধিক সম্ভাব্য রাষ্ট্রীয় ক্রম পেতে ভিটারবি অ্যালগরিদম প্রয়োগ করে (যেমন আমি এটি বুঝতে পেরেছি), তারপরে লুকানো প্যারামিটারগুলির পুনরায় অনুমান করার জন্য সম্ভবত এটি সম্ভবত রাষ্ট্রের ক্রম ব্যবহার করে। এটি, বাউম-ওয়েলচ অ্যালগরিদমের বিপরীতে, লুকানো প্যারামিটারগুলির সম্পূর্ণ শর্তসাপেক্ষ সম্ভাবনা দেয় না এবং তাই উল্লেখযোগ্য (অধ্যায়ের 1 থেকে 2 ক্রমের দৈর্ঘ্যের অধ্যায়টি রিপোর্ট করে) সংরক্ষণের সময় নির্ভুলতা হ্রাস করে।


7
আমি যদি ঠিক আছি তবে আপনি ভিটারবি প্রশিক্ষণ এবং ভিটারবি ডিকোডিং মেশান।
পিটার স্মিট

1
তুমি ঠিক বলছো. আমি জানতাম না যে এমন একটি প্রক্রিয়া ছিল যা কেবলমাত্র ভিটারবি অ্যালগরিদমকে রূপান্তর সম্ভাবনার গণনা করতে ব্যবহার করেছিল। এটি আরও পড়তে পড়তে - দেখে মনে হচ্ছে - যেমন অসচ্ছল সময় / বিচ্ছিন্ন রাষ্ট্র এইচএমএম বিশ্লেষণ এবং গাউসীয় মিশ্রণ বিতরণগুলি ব্যবহার করে পৃথক সময় / ধারাবাহিক রাষ্ট্র বিশ্লেষণের মধ্যে কিছু নামকরণের ওভারল্যাপ থাকে। আমার উত্তরটি ডিটিডিএস এইচএমএম সেটআপের সাথে কথা বলে না, এবং মিশ্রণের মডেল সেটআপে।
ধনী

@ রিচ: আপনি কি আমাকে ভিটারবি ট্রেনিংয়ের কিছু অ্যাক্সেসযোগ্য উপাদান (যেমন রবিনারের আসল এইচএমএম টিউটোরিয়াল) এর দিকে নির্দেশ করতে পারেন?
জ্যাকব

4
@ জ্যাকব ভিটার্বি প্রশিক্ষণটি সেগমেন্টাল কে-মিয়ানস নামেও চলেছেন, জুয়াং এবং রবিনারের এই পেপারটি দেখুন ।
অল্টো

1
@Anoldmaninthesea। যুগের মধ্যে সম্ভাবনার দিকে তাকানো হ'ল কনভার্সনটি নির্ধারণ করার স্বাভাবিক উপায় (সম্ভাবনা সর্বদা প্রতিটি পর্বের দিকে বাড়ানো উচিত এবং তারপরে আপনি যখন কোনও স্থানীয় ম্যাক্সিমায় পৌঁছেছেন তখন থামুন)। অন্য যে জিনিসটি আপনি করতে পারেন তা হ'ল ইএম চলাকালীন ডেটা ব্যবহার না হওয়ার সম্ভাবনা পর্যবেক্ষণ করে তাড়াতাড়ি থামানো।
অল্টো

0

আপনি যখন 'অদৃশ্য জিনিস' গণনা করতে চান তখন ফরোয়ার্ড-পশ্চাদপটে ব্যবহার করা হয়। উদাহরণস্বরূপ, নিরীক্ষণযোগ্য ডেটার মাধ্যমে কোনও মডেল উন্নত করতে EM ব্যবহার করার সময়। আমি মনে করি পেট্রোভের কাগজটি একটি উদাহরণ। আমি যে কৌশলটির কথা ভাবছি তার মধ্যে আপনি প্রথমে মোটামুটি মোটা মোছার টীকাগুলি (যেমন 'ভার্ব' এর জন্য ট্যাগ) দিয়ে টীকাগুলি ডেটা সহ একটি মডেলকে প্রশিক্ষণ দিন। তারপরে আপনি ইচ্ছামতভাবে সেই রাষ্ট্রের সম্ভাবনা ভরকে দুটি সামান্য অসম পরিমাণে বিভক্ত করুন এবং পুনরায় প্রশিক্ষণ করুন এবং দুটি রাজ্যের মধ্যে ভর পুনরায় বিতরণ করে সম্ভাবনা সর্বাধিকতর করতে এগিয়ে-পিছনে ছুটে যাবেন।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.