আমি বুঝতে পারি যে এটি একটি পুরানো প্রশ্ন, একটি প্রতিষ্ঠিত উত্তর সহ। আমি পোস্ট করার কারণটি হ'ল গ্রহণযোগ্য উত্তরে কে-এনএন ( কে- নিকটতম প্রতিবেশী) এর অনেক উপাদান রয়েছে , এটি একটি ভিন্ন অ্যালগরিদম।
কে-এনএন এবং নাইভবেইস উভয়ই শ্রেণিবদ্ধকরণ অ্যালগরিদম। ধারণাগতভাবে, কে-এনএন নতুন সত্ত্বাকে শ্রেণিবদ্ধ করতে "নিকটবর্তী" ধারণাটি ব্যবহার করে। কে-এনএন-তে 'সান্নিধ্য' ইউক্লিডিয়ান দূরত্ব বা কসিন দূরত্বের মতো ধারণাগুলির সাথে মডেল করা হয়েছে। বিপরীতে, নাইভবেয়েসে, 'সম্ভাব্যতা' ধারণাটি নতুন সত্ত্বাকে শ্রেণিবদ্ধ করার জন্য ব্যবহৃত হয়।
যেহেতু প্রশ্ন নাইভ বেয়েস সম্পর্কে, তাই আমি কারও কাছে ধারণা এবং পদক্ষেপগুলি কীভাবে বর্ণনা করব তা এখানে। আমি এটি যতটা সম্ভব সমীকরণ এবং সহজ সরল ইংরেজিতে করার চেষ্টা করব।
প্রথমত, শর্তসাপেক্ষ সম্ভাবনা এবং বেইসস বিধি
কেউ নায়েভ বেয়েস 'এর সূক্ষ্মতা বোঝার এবং উপলব্ধি করার আগে তাদের প্রথমে শর্তসাপেক্ষ সম্ভাবনা এবং বয়েসের নিয়মের ধারণা সম্পর্কিত কয়েকটি সম্পর্কিত ধারণা জেনে রাখা উচিত। (আপনি যদি এই ধারণাগুলির সাথে পরিচিত হন তবে নেভ বেইস টু গেটস শিরোনামে বিভাগটি ছেড়ে যান )
শর্তাধীন সম্ভাবনাসরল ইংরেজিতে সম্ভাবনা: অন্য কিছু ইতিমধ্যে ঘটেছে তা দিয়ে কিছু হওয়ার সম্ভাবনা কী ।
ধরা যাক যে কিছু ফলাফল O আছে এবং কিছু প্রমাণ E. এই সম্ভাবনাগুলি যেভাবে সংজ্ঞায়িত করা হয়েছে তা থেকে: থাকার সম্ভাবনা ফলাফল O এবং প্রমাণ E উভয়ই : (হে সংঘটিত হওয়ার সম্ভাবনা) দ্বারা গুণিত হয়েছে (E এর প্রবক্তা দেওয়া হয়েছে যে ও হয়েছে)
শর্তাধীন সম্ভাবনা বোঝার জন্য একটি উদাহরণ:
ধরা যাক আমাদের কাছে মার্কিন সিনেটরদের সংগ্রহ রয়েছে। সিনেটররা ডেমোক্র্যাট বা রিপাবলিকান হতে পারেন। তারা পুরুষ বা মহিলা উভয়ই।
যদি আমরা একজন সিনেটরকে সম্পূর্ণ এলোমেলোভাবে নির্বাচন করি, তবে এই ব্যক্তি একজন মহিলা ডেমোক্র্যাট হওয়ার সম্ভাবনা কত? শর্তাধীন সম্ভাবনা আমাদের এটির জবাব দিতে সহায়তা করতে পারে।
(ডেমোক্র্যাট এবং মহিলা সিনেটর) সম্ভাবনা = প্রব (সিনেটর হলেন ডেমোক্র্যাট) শর্তসাপেক্ষ হওয়ার সম্ভাবনা যে মহিলা হ'ল তারা একজন গণতান্ত্রিক।
P(Democrat & Female) = P(Democrat) * P(Female | Democrat)
আমরা ঠিক একই জিনিস, বিপরীতে গণনা করতে পারি:
P(Democrat & Female) = P(Female) * P(Democrat | Female)
বয়েস বিধি বোঝা
ধারণামূলকভাবে, এটি পি (প্রমাণ | জ্ঞাত ফলাফল) থেকে পি (ফলাফল | জ্ঞাত প্রমাণ) যাওয়ার একটি উপায়। প্রায়শই, আমরা জানি যে কোনও নির্দিষ্ট প্রমাণ কতবার ঘন ঘন পরিলক্ষিত হয়, একটি পরিচিত ফলাফল দেওয়া হয় । আমাদের প্রমাণিত প্রমাণগুলি উল্টো গণনা করতে, ফলাফলের সম্ভাবনা গণনার জন্য ব্যবহার করতে হবে ।
পি (ফলাফল দেওয়া হয়েছে যে আমরা কিছু প্রমাণ জানি) = পি (প্রমাণ দেওয়া হয় যে আমরা ফলাফলটি জানি) সময় প্রব (ফলাফল), পি দ্বারা প্রমাণিত (প্রমাণ)
বেয়েসের নিয়ম বোঝার সর্বোত্তম উদাহরণ:
Probability of Disease D given Test-positive =
Prob(Test is positive|Disease) * P(Disease)
_______________________________________________________________
(scaled by) Prob(Testing Positive, with or without the disease)
নাইভ বেয়েসের কাছে পৌঁছানোর জন্য এখন এই সমস্ত কিছুই কেবল উপস্থাপনযোগ্য ছিল।
নাইভ বেয়েসের কাছে যাচ্ছি '
এখনও অবধি, আমরা কেবলমাত্র প্রমাণের এক টুকরো সম্পর্কে কথা বলেছি। বাস্তবে, আমাদের একাধিক প্রমাণ দিয়ে একটি ফলাফলের পূর্বাভাস দিতে হবে । সেক্ষেত্রে গণিত খুব জটিল হয়ে যায়। এই জটিলতাটি পেতে, একাধিক প্রমাণকে 'অস্বচ্ছল' করা এবং প্রমাণের প্রতিটি অংশকে স্বতন্ত্র বলে বিবেচনা করা one এই পদ্ধতির কারণেই এটিকে নিখোঁজ বায়েস বলা হয় ।
P(Outcome|Multiple Evidence) =
P(Evidence1|Outcome) * P(Evidence2|outcome) * ... * P(EvidenceN|outcome) * P(Outcome)
scaled by P(Multiple Evidence)
অনেকে এটিকে মনে রাখতে পছন্দ করেন:
P(Likelihood of Evidence) * Prior prob of outcome
P(outcome|evidence) = _________________________________________________
P(Evidence)
এই সমীকরণ সম্পর্কে কয়েকটি বিষয় লক্ষ্য করুন:
- যদি প্রোব (প্রমাণ | ফলাফল) 1 হয়, তবে আমরা কেবল 1 দ্বারা গুণ করছি।
- যদি প্রোব (কিছু নির্দিষ্ট প্রমাণ | ফলাফল) 0 হয় তবে পুরো প্রোব। 0 হয়। আপনি যদি বিরোধী প্রমাণ দেখতে পান তবে আমরা সেই ফলাফলটি বাতিল করতে পারি।
- যেহেতু আমরা সমস্ত কিছু পি (প্রমাণ) দ্বারা বিভক্ত করি তাই আমরা এটি গণনা না করেও পালিয়ে যেতে পারি।
- পূর্বের দ্বারা গুণনের পিছনে অন্তর্নিহিততাটি হ'ল যাতে আমরা আরও সাধারণ ফলাফলগুলিতে উচ্চ সম্ভাবনা এবং অসম্ভাব্য পরিণতিতে কম সম্ভাবনা দেই। এগুলিকেও বলা হয়
base rates
এবং এগুলি আমাদের পূর্বাভাসের সম্ভাবনাগুলি স্কেল করার একটি উপায়।
কোন ফলাফলের পূর্বাভাস দেওয়ার জন্য নাইভবেস কীভাবে প্রয়োগ করবেন?
প্রতিটি সম্ভাব্য ফলাফলের জন্য কেবল উপরের সূত্রটি চালান। যেহেতু আমরা শ্রেণিবদ্ধ করার চেষ্টা করছি , তাই প্রতিটি ফলাফলকে বলা হয় class
এবং class label.
আমাদের কাজটি প্রমাণের দিকে তাকাতে হয়, এই শ্রেণি বা এই শ্রেণীর কতটা সম্ভাবনা রয়েছে তা বিবেচনা করা এবং প্রতিটি সত্তাকে একটি লেবেল অর্পণ করা। আবার, আমরা খুব সহজ পদ্ধতির গ্রহণ করি: যে শ্রেণীর সর্বোচ্চ সম্ভাবনা থাকে তাকে "বিজয়ী" হিসাবে ঘোষণা করা হয় এবং সেই শ্রেণীর লেবেল প্রমাণের সংমিশ্রণে বরাদ্দ পায়।
ফলের উদাহরণ
আসুন আমাদের বোঝাপড়া বাড়াতে উদাহরণ দিয়ে চেষ্টা করুন: ওপি একটি 'ফল' সনাক্তকরণের উদাহরণ চেয়েছিল।
ধরা যাক যে আমাদের 1000 টি ফলের টুকরা রয়েছে। এগুলি কলা , কমলা বা অন্য কোনও ফল হতে পারে । আমরা প্রতিটি ফল সম্পর্কে 3 টি বৈশিষ্ট্য জানি:
- তা লম্বা কিনা
- তা মিষ্টি এবং
- যদি এর রঙ হলুদ হয়।
এটি আমাদের 'প্রশিক্ষণের সেট'। আমরা আমাদের যে কোনও নতুন ফলের মুখোমুখি হব তা পূর্বাভাস দিতে এটি ব্যবহার করব ।
Type Long | Not Long || Sweet | Not Sweet || Yellow |Not Yellow|Total
___________________________________________________________________
Banana | 400 | 100 || 350 | 150 || 450 | 50 | 500
Orange | 0 | 300 || 150 | 150 || 300 | 0 | 300
Other Fruit | 100 | 100 || 150 | 50 || 50 | 150 | 200
____________________________________________________________________
Total | 500 | 500 || 650 | 350 || 800 | 200 | 1000
___________________________________________________________________
আমরা আমাদের ফল সংগ্রহ সম্পর্কে অনেক কিছু প্রাক-গণনা করতে পারি।
তথাকথিত "পূর্ব" সম্ভাব্যতা। (আমরা যদি কোনও ফলের গুণাবলী না জানতাম তবে এটি আমাদের অনুমান।) এগুলি আমাদেরbase rates.
P(Banana) = 0.5 (500/1000)
P(Orange) = 0.3
P(Other Fruit) = 0.2
"প্রমাণ" সম্ভাবনা
p(Long) = 0.5
P(Sweet) = 0.65
P(Yellow) = 0.8
"সম্ভাবনা" এর সম্ভাবনা
P(Long|Banana) = 0.8
P(Long|Orange) = 0 [Oranges are never long in all the fruit we have seen.]
....
P(Yellow|Other Fruit) = 50/200 = 0.25
P(Not Yellow|Other Fruit) = 0.75
একটি ফল দেওয়া হয়েছে, কীভাবে এটি শ্রেণিবদ্ধ করা যায়?
ধরা যাক যে আমাদের একটি অজানা ফলের বৈশিষ্ট্য দেওয়া হয়েছে এবং এটি শ্রেণিবদ্ধ করতে বলা হয়েছে। আমাদের বলা হয় যে ফলগুলি দীর্ঘ, মিষ্টি এবং হলুদ। এটা কি কলা? এটি কি কমলা? নাকি এটি অন্য কিছু ফল?
আমরা একের পর এক 3 টি ফলাফলের জন্য কেবল সংখ্যা চালাতে পারি। তারপরে আমরা সর্বাধিক সম্ভাবনা চয়ন করি এবং আমাদের অজানা ফলটি শ্রেণীর অন্তর্ভুক্ত হিসাবে শ্রেণীবদ্ধ করি যা আমাদের পূর্ব প্রমাণের (আমাদের 1000 টি ফলের প্রশিক্ষণের সেট) উপর ভিত্তি করে সর্বাধিক সম্ভাবনা ছিল:
P(Banana|Long, Sweet and Yellow)
P(Long|Banana) * P(Sweet|Banana) * P(Yellow|Banana) * P(banana)
= _______________________________________________________________
P(Long) * P(Sweet) * P(Yellow)
= 0.8 * 0.7 * 0.9 * 0.5 / P(evidence)
= 0.252 / P(evidence)
P(Orange|Long, Sweet and Yellow) = 0
P(Other Fruit|Long, Sweet and Yellow)
P(Long|Other fruit) * P(Sweet|Other fruit) * P(Yellow|Other fruit) * P(Other Fruit)
= ____________________________________________________________________________________
P(evidence)
= (100/200 * 150/200 * 50/200 * 200/1000) / P(evidence)
= 0.01875 / P(evidence)
অপ্রতিরোধ্য মার্জিন দ্বারা ( 0.252 >> 0.01875
), আমরা কলা হতে পারে বলে মিষ্টি / লম্বা / হলুদ ফলটিকে শ্রেণিবদ্ধ করি।
বায়েস ক্লাসিফায়ার এত জনপ্রিয় কেন?
এটি অবশেষে নেমে আসে দেখুন। মাত্র কিছু গণনা এবং গুণ। আমরা এই সমস্ত শর্তাদি প্রাক-গণনা করতে পারি, এবং তাই শ্রেণিবদ্ধকরণ সহজ, দ্রুত এবং দক্ষ হয়ে ওঠে।
Let z = 1 / P(evidence).
এখন আমরা দ্রুত নিম্নলিখিত তিনটি পরিমাণ গণনা করি।
P(Banana|evidence) = z * Prob(Banana) * Prob(Evidence1|Banana) * Prob(Evidence2|Banana) ...
P(Orange|Evidence) = z * Prob(Orange) * Prob(Evidence1|Orange) * Prob(Evidence2|Orange) ...
P(Other|Evidence) = z * Prob(Other) * Prob(Evidence1|Other) * Prob(Evidence2|Other) ...
সর্বাধিক সংখ্যার যে শ্রেণীর লেবেল নির্ধারণ করুন এবং আপনি হয়ে গেছেন।
নাম সত্ত্বেও, নায়েভ বয়েস নির্দিষ্ট অ্যাপ্লিকেশনগুলিতে দুর্দান্ত হয়ে উঠেছে। পাঠ্য শ্রেণিবিন্যাস এমন একটি ক্ষেত্র যেখানে এটি সত্যই জ্বলে।
আশা করি যা নায়েভ বেয়েস অ্যালগরিদমের পিছনে ধারণাগুলি বুঝতে সহায়তা করে।