কীভাবে নির্ভুলতা গণনা করা যায় এবং 3 x 3 বিভ্রান্তির ম্যাট্রিক্সে পুনরায় কল করা যায়


12
                  Predicted
                    class
               Cat  Dog Rabbit
  Actual class
           Cat   5    3      0
           Dog   2    3      1
        Rabbit   0    2     11

আমি কীভাবে নির্ভুলতা গণনা করতে পারি এবং পুনরায় স্মরণ করতে পারি তাই F1- স্কোর গণনা করা সহজ হয়ে যায়। সাধারণ বিভ্রান্তির ম্যাট্রিক্স একটি 2 x 2 মাত্রা। যাইহোক, যখন এটি 3 x 3 হয়ে যায় আমি কীভাবে নির্ভুলতা এবং পুনর্বার গণনা করতে জানি না।

উত্তর:


19

আপনি যদি নির্ভুলতার সংজ্ঞাগুলি (ওরফে পজিটিভ প্রেডিকটিভ ভ্যালু পিপিভি) এবং পুনর্বিবেচনা (ওরফে সংবেদনশীলতা) বানান করে থাকেন তবে আপনি দেখতে পাবেন যে এগুলি অন্য কোনও শ্রেণীর চেয়ে স্বাধীন একটি শ্রেণির সাথে সম্পর্কিত :

রিকল বা senstitivity ক্ষেত্রে সঠিকভাবে বর্গ অন্তর্গত হিসাবে চিহ্নিত অনুপাত হয় সব ক্ষেত্রেই যে সত্যিই বর্গ অন্তর্গত মধ্যে
(আমাদের কাছে সত্যই " " এর সাথে সম্পর্কিত একটি মামলা রয়েছে , এটি সঠিকভাবে ভবিষ্যদ্বাণী করার সম্ভাবনা কী?)

যথার্থ বা ধনাত্মক ভবিষ্যদ্বাণীমূলক মান পিপিভি হ'ল শ্রেণীর সি সম্পর্কিত যেগুলি সঠিকভাবে চিহ্নিত করা হয়েছে সেই সমস্ত অনুপাত যা শ্রেণিবদ্ধকারী দাবি করে যে তারা শ্রেণীর গ এর সাথে সম্পর্কিত
অন্য কথায়, যেসব ক্ষেত্রে পূর্বাভাস দেওয়া হয়েছে সেগুলি শ্রেণীর সি অন্তর্গত , কোন ভগ্নাংশটি সত্যই শ্রেণীর গ এর সাথে সম্পর্কিত ? (পূর্বাভাস " " দেওয়া, সঠিক হওয়ার সম্ভাবনা কত?)

cases ণাত্মক ভবিষ্যদ্বাণীমূলক মান NPV যেসব ক্ষেত্রে সি ক্লাসের অন্তর্গত নয় বলে পূর্বাভাস দেওয়া হয়েছে , কোন ভগ্নাংশটি সত্যই ক্লাস সি এর সাথে সম্পর্কিত নয় ? (" সি সি নয়" ভবিষ্যদ্বাণীটি দেওয়া , সঠিক হওয়ার সম্ভাবনা কী?)

সুতরাং আপনি নির্ভুলতা গণনা করতে পারেন এবং আপনার প্রতিটি ক্লাসের জন্য পুনরায় কল করতে পারেন। বহু-শ্রেণীর বিভ্রান্তি ছকগুলির জন্য, এটি যথাক্রমে তাদের সারি এবং কলামের যোগফলগুলির দ্বারা বিভাজক তির্যক উপাদান:

গণনা পরিকল্পনা

সূত্র: বেলাইটস, সি; আংশিক শ্রেণীর সদস্যপদ ব্যবহার করে নরম শ্রেণিবদ্ধকরণের মডেলগুলির বৈধকরণ: সালজার, আর ও সার্গো, ভি। সংবেদনশীলতা এবং কো এর বর্ধিত ধারণা। অ্যাস্ট্রোকাইটোমা টিস্যুগুলির গ্রেডিংয়ে প্রয়োগ করা হয়েছে, কেমম ইন্টেল ল্যাব সিস্ট, 122, 12 - 22 (2013)। ডিওআই: 10.1016 / জে.কোমোলাব এমপিএল .১১.০০.০০


অনেক ধন্যবাদ. আমি ইতিমধ্যে আপনার সমাধান বর্ণিত উপমা বুঝতে। আমি কাগজ পড়ব। আমি উত্তর হিসাবে এটি গ্রহণ করব। আমি পিপিভি এবং এনপিভি বুঝতে পারি না lease অনুগ্রহ করে এই ধারণাটি গ্রাফিক হিসাবে ব্যাখ্যা করুন যেহেতু সেনস এবং স্পেকটি ব্যাখ্যা করা হয়েছিল এবং আমি আপনার উত্তর গ্রহণ করব।
ব্যবহারকারী22149

3

বাধ্যতামূলক পছন্দ (শ্রেণিবিন্যাস) এ ডেটা হ্রাস করে এবং কোনও "নিকটে কল" ছিল কিনা তা রেকর্ড না করে, আপনি গোপনে একটি অদ্ভুত ইউটিলিটি / ক্ষতি / ব্যয় কার্যকারিতা ধরে রেখে এবং স্বেচ্ছাসেবী থ্রেশহোল্ডগুলি ব্যবহার করে ন্যূনতম-তথ্য ন্যূনতম-নির্ভুলতার পরিসংখ্যান অনুমানগুলি পান । সর্বাধিক তথ্য ব্যবহার করা আরও ভাল হবে, এতে শ্রেণীর সদস্যতার সম্ভাবনা এবং জোরপূর্বক পছন্দগুলি অন্তর্ভুক্ত থাকবে।


1

সবচেয়ে সহজ উপায় হ'ল বিভ্রান্তি_ম্যাট্রিক্সটি মোটেও ব্যবহার না করা, শ্রেণিবদ্ধকরণ_বন্দর () ব্যবহার করুন, এটি আপনাকে যা যা প্রয়োজন সবই দেবে, চিয়ার্স ...

সম্পাদনা করুন:
এটি কনফিউশন_ম্যাট্রিক্স () এর ফর্ম্যাট:
[[টিপি, এফএন]
[এফপি, টিএন]]
এবং শ্রেণিবিন্যাসের প্রতিবেদনটি এগুলি দেয়


এটি যদি আপনি অজগর /// ব্যবহার করছেন
ওমকার.কে

0

আপনি যদি কেবল ফলাফলটি চান তবে আমার পরামর্শটি হ'ল আপনার নিষ্পত্তি করার সরঞ্জামগুলি সম্পর্কে খুব বেশি চিন্তা না করা এবং ব্যবহার করা। পাইথনে আপনি কীভাবে এটি করতে পারেন তা এখানে;

import pandas as pd
from sklearn.metrics import classification_report

results = pd.DataFrame(
    [[1, 1],
     [1, 2],
     [1, 3],
     [2, 1],
     [2, 2],
     [2, 3],
     [3, 1],
     [3, 2],
     [3, 3]], columns=['Expected', 'Predicted'])

print(results)
print()
print(classification_report(results['Expected'], results['Predicted']))

নিম্নলিখিত আউটপুট পেতে

   Expected  Predicted
0         1          1
1         1          2
2         1          3
3         2          1
4         2          2
5         2          3
6         3          1
7         3          2
8         3          3

             precision    recall  f1-score   support

          1       0.33      0.33      0.33         3
          2       0.33      0.33      0.33         3
          3       0.33      0.33      0.33         3

avg / total       0.33      0.33      0.33         9

0

আমাদের শ্রেণীর লেবেলগুলি এ, বি এবং সি হ'ল ধরে নেওয়া একটি বহু-শ্রেণীর বিভ্রান্তির ম্যাট্রিক্সের উদাহরণ নীচে দেওয়া হয়েছে

এ / পি এ বি সি সুম
এ 10 3 4 17
বি 2 12 6 20
সি 6 3 9 18

যোগফল 18 18 19 55

এখন আমরা যথার্থতার জন্য তিনটি মান গণনা করি এবং প্রত্যেকে প্রত্যাহার করি এবং তাদেরকে Pa, Pb এবং PC বলে; এবং একইভাবে রা, আরবি, আরসি।

আমরা প্রিসিশন = টিপি / (টিপি + এফপি) জানি, সুতরাং প এর জন্য সত্যিকারের ইতিবাচক হবে A, অর্থাৎ, 10 হিসাবে, যে কলামের দুটি কক্ষের বাকী, সে বি বা সি, মিথ্যা ধনাত্মক করুন as সুতরাং

পা = 10/18 = 0.55 রা = 10/17 = 0.59

ক্লাস বিয়ের জন্য এখন নির্ভুলতা এবং পুনর্বিবেচনা হ'ল পিবি এবং আরবি। বি শ্রেণীর ক্ষেত্রে, সত্য ধনাত্মক হ'ল বি হিসাবে পূর্বাভাস দেওয়া হয়েছে, এটি সেই কলামের মান 12 এবং এই কলামের দুটি কোষের বাকীটি মিথ্যা ধনাত্মক করে তোলে, তাই

পিবি = 12/18 = 0.67 আরবি = 12/20 = 0.6

একইভাবে পিসি = 9/19 = 0.47 আরসি = 9/18 = 0.5

শ্রেণিবদ্ধের সামগ্রিক পারফরম্যান্স গড় যথার্থতা এবং গড় রিক্যাল দ্বারা নির্ধারিত হবে। এর জন্য আমরা প্রতিটি শ্রেণীর জন্য যথাযথ মানটিকে সেই শ্রেণীর প্রকৃত উদাহরণগুলির সাথে সংখ্যাবৃদ্ধি করি, তারপরে তাদের যুক্ত করুন এবং মোট দৃষ্টান্তের সংখ্যার সাথে ভাগ করুন। মত,

গড় যথার্থতা = (0.55 * 17 + 0.67 * 20 + 0.47 * 18) / 55 = 31.21 / 55 = 0.57 গড় রিকাল = (0.59 * 17 + 0.6 * 20 + 0.5 * 18) / 55 = 31.03 / 55 = 0.56

আমি আসা করি এটা সাহায্য করবে

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.