চ বিটা স্কোর কেন বিটা সংজ্ঞায়িত করে?


10

এটি এফ বিটা স্কোর:

Fβ=(1+β2)precisionrecall(β2precision)+recall

উইকিপিডিয়া নিবন্ধে বলা হয়েছে যে states ।Fβ "measures the effectiveness of retrieval with respect to a user who attaches β times as much importance to recall as precision"

আইডিয়া পেলাম না। কেন এইরকম সংজ্ঞায়িত করবেন ? আমি কি এই জাতীয় সংজ্ঞা দিতে পারি :এফ ββFβ

Fβ=(1+β)precisionrecall(βprecision)+recall

আর কিভাবে দেখাব β times as much importance?


2
নীচে একটি নতুন উত্তর পরীক্ষা করে দেখুন যার মধ্যে ডিফারেনশিয়াল ক্যালকুলাস অন্তর্ভুক্ত রয়েছে যা "কেন বিটা স্কোয়ার্ড এবং বিটা নয় " হিসাবে সম্বোধন করে ।
জাভাদবা

উত্তর:


19

লেটিং প্রথম সংজ্ঞা আপনি প্রদান ওজন এবং হতে দ্বিতীয় ওজন, দুই সংজ্ঞা সমতুল্য যখন আপনি সেট হয় , তাই এই দুটি সংজ্ঞা শুধুমাত্র প্রতীকের পার্থক্য প্রতিনিধিত্ব স্কোরের সংজ্ঞা । আমি দেখেছি এটি উভয় প্রথম উপায় সংজ্ঞায়িত (যেমন উপর উইকিপিডিয়া পৃষ্ঠা ) এবং দ্বিতীয় (যেমন এখানে )।˜ β ˜ β = β 2 এফ βββ~β~=β2Fβ

পরিমাপ স্পষ্টতা এবং রিকল, যথা সঠিকতার পারস্পরিক এবং রিকল পারস্পরিক গড় পারস্পরিক সমন্বয়পূর্ণ গড় গ্রহণ দ্বারা প্রাপ্ত হয়:F1

F1=1121precision+121recall=2precisionrecallprecision+recall

ডিনোমিনেটরে ওজন ব্যবহার করার পরিবর্তে সমান এবং সমষ্টি 1 ( জন্য এবং নির্ভুলতার জন্য) এর পরিবর্তে, আমরা পরিবর্তে 1 ওজনের জন্য ওজন নির্ধারণ করতে পারি তবে যা স্মরণে রাখা ওজন হ'ল নির্ভুলতার ওজন হিসাবে গুন ( and এবং নির্ভুলতার জন্য ))। এটি আপনার স্কোরের দ্বিতীয় সংজ্ঞা দেয় : 112 ββ12β 1ββ+1 ফাঃβ1β+1Fβ

Fβ=11β+11precision+ββ+11recall=(1+β)precisionrecallβprecision+recall

আবার, আমরা যদি এখানে পরিবর্তে ব্যবহার করতাম তবে আমরা আপনার প্রথম সংজ্ঞাটিতে পৌঁছে যেতাম, সুতরাং দুটি সংজ্ঞাগুলির মধ্যে পার্থক্য কেবলমাত্র যুক্তিযুক্ত। ββ2β


1
কেন তারা পুনরুদ্ধার শর্তের পরিবর্তে নির্ভুলতার সাথে গুণ করে ? β
আনোয়ারভিক

1
ডিফারেনশিয়াল সমীকরণ এমন যে ঠিকানাগুলি "কেন বেটা ছক ও বিটা না" নীচে একটি নতুন উত্তর অন্তর্ভুক্ত করা হয়।
জাভাদবা

@ আনওয়ারভিচ তারা বিপরীত পুনরুদ্ধারের সাথে গুণ করেছে । বের করার পরে এবং( 1 + β ) যথার্থতা all পুনরুদ্ধার β নির্ভুলতাβ(1+β)precisionrecallβprecision
d সিডট

6

with এর সাথে এফ-বিটা স্কোরটি সংজ্ঞায়িত করার কারণটি হ'ল আপনার প্রদত্ত উদ্ধৃতিটি (যেমন সংযুক্তি করতে চান বার যথার্থতার সাথে স্মরণ করার জন্য তত বেশি গুরুত্ব দেওয়া) সংযুক্ত করার অর্থ কী তার জন্য একটি নির্দিষ্ট সংজ্ঞা দেওয়া হয়েছে যথার্থতার চেয়ে স্মরণে তত বেশি গুণ।β2ββ

" গঠনের দিকে পরিচালিত দুটি মেট্রিকের আপেক্ষিক গুরুত্ব নির্ধারণের বিশেষ উপায়টি তথ্য পুনরুদ্ধার (ভ্যান রিজবার্গেন, 1979) পাওয়া যাবে:β2

সংজ্ঞা: কোনও ব্যবহারকারী নির্ভুলতা এবং পুনর্বিবেচনার সাথে যে আপেক্ষিক গুরুত্ব সংযুক্ত করে তা হ'ল অনুপাত যা , যেখানে হ'ল নির্ভুলতা এবং পুনরুদ্ধারের উপর ভিত্তি করে কার্যকারিতার পরিমাপ।P/RE/R=E/PE=E(P,R)

এই সত্তার জন্য অনুপ্রেরণা:

এটির পরিমাণ নির্ধারণের আমি সবচেয়ে সহজ উপায়টি হল অনুপাতের নির্দিষ্টকরণ যা ব্যবহারকারীর পুনরুদ্ধারের ক্ষেত্রে সমান ক্ষতির জন্য যথাযথভাবে একটি বর্ধিত ব্যবসায় বাণিজ্য করতে ইচ্ছুক।P/R

দেখতে এই বিশালাকার তৈয়ার আমরা ভরযুক্ত সমন্বয়পূর্ণ গড় সাধারণ সূত্র সঙ্গে শুরু করতে পারেন এবং ও সম্মান সঙ্গে তাদের আংশিক ডেরাইভেটিভস নিরূপণ এবং । উত্সটি উদ্ধৃত করে ("কার্যকারিতা পরিমাপের জন্য") ব্যবহার করে, যা মাত্র এবং ব্যাখ্যাটি আমরা বা বিবেচনা করি না কেন সমান ।β2PRPRE1FEF

F=1(αP+1αR)

F/P=α(αP+1αR)2P2

F/R=1α(αP+1αR)2R2

এখন, ডেরাইভেটিভসকে একে অপরের সমান নির্ধারণ করে এবং অনুপাত মধ্যে সম্পর্কের উপর একটি বাধা দেয় । প্রদত্ত যে আমরা নির্ভুলতার হিসাবে স্মরণ করতে বারকে যতটা গুরুত্ব দিতে চাই আমরা 1 অনুপাত বিবেচনা করব :αP/RβR/P

F/P=F/RαP2=1αR2RP=1αα

ডিফাইনিং এই অনুপাত হিসাবে এবং জন্য সাজানোর পরিপ্রেক্ষিতে weightings দেয় :βαβ2

β=1ααβ2=1ααβ2+1=1αα=1β2+1

1α=11β2+1β2β2+1

আমরা প্রাপ্ত:

F=1(1β2+11P+β2β2+11R)

আপনার প্রশ্নের ফর্ম দিতে যা পুনরায় সাজানো যেতে পারে।

সুতরাং, উদ্ধৃত সংজ্ঞা প্রদত্ত, আপনি যদি সংক্ষিপ্ততার হিসাবে স্মরণ করতে times গুণকে এত বেশি গুরুত্ব দিতে চান তবে সূত্রটি ব্যবহার করা উচিত। যদি কেউ । ব্যবহার করে তবে এই ব্যাখ্যাটি ধরে রাখে না । আমরা কেবল ব্যবহার করি না কেন সেই ক্ষেত্রে সমতুল্য, স্বল্পজ্ঞানীয় ব্যাখ্যাটি আমরা নির্ভুলতার মতো স্মরণ করার জন্য as যত বেশি গুরুত্ব দিতে চাই।ββ2βββ

আপনার পরামর্শ অনুসারে আপনি কোনও স্কোরকে সংজ্ঞায়িত করতে পারেন, তবে আপনাকে সচেতন হওয়া উচিত যে এক্ষেত্রে আলোচিত ব্যাখ্যাটি আর রাখে না বা আপনি যথার্থতা এবং প্রত্যাহার মধ্যে বাণিজ্যকে প্রশমিত করার জন্য অন্য কোনও সংজ্ঞাটি বোঝাচ্ছেন।

পাদটিকা:

  1. P/R তথ্য পুনরুদ্ধারে ব্যবহৃত হয় তবে এটি টাইপ হিসাবে উপস্থিত হয় , এফ- মেজারের সত্যতা দেখুন (সাসকি, 2007)।

তথ্যসূত্র:

  1. সিজে ভ্যান রিজবার্গেন। 1979. তথ্য পুনরুদ্ধার (2 য় সংস্করণ), pp.133-134
  2. ওয়াই সাসাকি। 2007. "এফ-মাপের সত্য", টিচিং, টিউটোরিয়াল উপকরণ

1
এটি গ্রহণযোগ্য উত্তর হওয়া উচিত।
জাভাদবা

3

কিছু দ্রুত নির্দেশ করা।

এর অর্থ হ'ল বিটার মান বাড়ার সাথে সাথে আপনি যথার্থকে আরও মূল্য দিন।

আমি আসলে এটির বিপরীতে ভাবি - যেহেতু এফ-β স্কোরিংয়ের চেয়ে উচ্চতর, তাই আপনি চান যে ছোটটি ছোট হোক। অতএব, যদি আপনি decrease হ্রাস করেন তবে মডেলটিকে ভাল নির্ভুলতার জন্য কম স্কোর দেওয়া হচ্ছে। আপনি যদি β বৃদ্ধি করেন তবে যথার্থতা বেশি হলে F-β স্কোরকে আরও বেশি শাস্তি দেওয়া হয়।

আপনি যদি এফ-β স্কোরিংকে ওজন করতে চান যাতে এটি যথার্থতার মূল্য দেয়, 0 0 <β <1 হওয়া উচিত, যেখানে β-> 0 মানগুলি কেবল নির্ভুল হয় (অংকটি খুব ছোট হয়ে যায়, এবং ডিনোমিনেটরের একমাত্র জিনিসটি প্রত্যাহার হয়, সুতরাং এফ-β স্কোর পুনর্বিবেচনা বৃদ্ধির সাথে সাথে হ্রাস পায়)।

http://scikit-learn.org/stable/modules/generated/sklearn.metrics.fbeta_score.html


0

Ision ^ 2 যথার্থতার সাথে গুণিত করার কারণটি কেবল এফ-স্কোরগুলি সংজ্ঞায়িত করা হয়। এর অর্থ হ'ল বিটার মান বাড়ার সাথে সাথে আপনি যথার্থকে আরও মূল্য দিন। যদি আপনি এটিকে পুনরায় স্মরণ করার মাধ্যমে এটিরও গুন করতে চান তবে এর অর্থ হ'ল বিটা মানটি বাড়ার সাথে সাথে আপনি আরও বেশি স্মরণকে মূল্য দিতে চান।


0

1 এর চেয়ে বেশি বিটার মানটির অর্থ আমরা আমাদের মডেলটিকে যথার্থতার তুলনায় মডেলটির পুনর্বিবেচনার দিকে আরও মনোযোগ দিতে চাই। অন্যদিকে, 1 টিরও কম মানের একটি যথার্থতার উপর বেশি জোর দেয়।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.