আমি দুই জনপ্রিয় পোস্ট হক মডেল interpretability কৌশল সম্পর্কে আপ পড়া করছি: LIME এবং SHAP
এই দুটি কৌশলগুলির মূল পার্থক্য বুঝতে আমার সমস্যা হচ্ছে।
করতে স্কট Lundberg উদ্ধৃত , SHAP পিছনে ঘিলু:
শ্যাপ মানগুলি ব্ল্যাকবক্সের স্থানীয় অনুমানের সুবিধার সাথে এলআইএমএম আসে, তবে গেম তত্ত্ব থেকে ধারাবাহিকতা এবং স্থানীয় নির্ভুলতা সম্পর্কে তাত্ত্বিক গ্যারান্টি সহ আসে (অন্যান্য পদ্ধতির বৈশিষ্ট্য যা আমরা একত্রিত করেছি)
এটি বুঝতে আমার কিছুটা সমস্যা হচ্ছেগেম তত্ত্ব থেকে ধারাবাহিকতা এবং স্থানীয় নির্ভুলতা সম্পর্কে তাত্ত্বিক গ্যারান্টিটি হচ্ছে। যেহেতু ল্যাপের পরে শ্যাপটি বিকাশ করা হয়েছিল, তাই আমি ধরে নিই যে এটি কিছু শূন্যস্থান পূরণ করে যা LIME সম্বোধন করতে ব্যর্থ। ওইগুলো কি?
ক্রিস্টোফ মোলনার বইটি শাপেলি অনুমানের এক অধ্যায়ে বলেছে:
পূর্বাভাস এবং গড় পূর্বাভাসের মধ্যে পার্থক্যটি উদাহরণের বৈশিষ্ট্যগুলির মানগুলির মধ্যে মোটামুটি বিতরণ করা হয় - শেপালি দক্ষতা সম্পত্তি। এই সম্পত্তি LIME এর মতো অন্যান্য পদ্ধতি থেকে পৃথক শাপলির মান সেট করে। LIME প্রভাবগুলি পুরোপুরি বিতরণের গ্যারান্টি দেয় না। এটি শাপলির মানটিকে সম্পূর্ণ ব্যাখ্যা দেওয়ার একমাত্র পদ্ধতি হিসাবে তৈরি করতে পারে
এটি পড়ার পরে, আমি বুঝতে পারি যে শ্যাপটি স্থানীয় নয় তবে ডেটা পয়েন্টের একটি সম্পূর্ণ ব্যাখ্যা। আমি এখানে ভুল হতে পারি এবং এই উপরের উদ্ধৃতিটির অর্থ কী তা সম্পর্কে কিছুটা অন্তর্দৃষ্টি দরকার। আমার জিজ্ঞাসার সংক্ষিপ্তসারে: LIME স্থানীয় ব্যাখ্যা উত্পন্ন করে। কীভাবে শ্যাপের ব্যাখ্যা এলআইএম এর থেকে আলাদা?