প্রশ্ন:
আমার কাছে পরীক্ষার প্রশ্নে বাইনারি ডেটা রয়েছে (সঠিক / ভুল) কিছু ব্যক্তির প্রশ্নগুলির একটি উপসেট এবং তাদের সঠিক উত্তরগুলির পূর্বে অ্যাক্সেস থাকতে পারে। আমি জানি না কে, কত, বা কোনটি। যদি কোন প্রতারণার ছিল, মনে হয় আমি আইটেমের জন্য একটি সঠিক প্রতিক্রিয়া সম্ভাবনা মডেল হবে যেমন , যেখানে প্রশ্ন অসুবিধা উপস্থাপন করে এবং ব্যক্তির সুপ্ত ক্ষমতা। এটি একটি খুব সাধারণ আইটেম রেসপন্স মডেল যা আর্টে এলটিএম এর র্যাশ () এর মতো ফাংশনগুলির সাথে অনুমান করা যেতে পারে সুপ্ত পরিবর্তনশীলের অনুমান (যেখানে সূচক ব্যক্তিরা) আমার পৃথক অনুমানের অ্যাক্সেস রয়েছেঠ ণ ছ আমি টন ( ( পি আমি = 1 | z- র ) ) = β আমি + + z- র β আমি z- র z- র ঞ ঞ কুই ঞ একই প্রচ্ছন্ন ভেরিয়েবলের যা অন্য একটি ডেটাসেট থেকে নেওয়া হয়েছিল যাতে প্রতারণা সম্ভব ছিল না।
লক্ষ্যটি হ'ল সেই ব্যক্তিদের চিহ্নিত করা যিনি সম্ভবত প্রতারণা করেছেন এবং যে আইটেমগুলি তারা প্রতারণা করেছেন। আপনি গ্রহণ করতে পারেন কিছু পদ্ধতির কি কি? কাঁচা ডেটা ছাড়াও, , , এবং সব পাওয়া যায়, যদিও প্রথম দুই কারণে প্রতারণার কিছু পক্ষপাত থাকবে। আদর্শভাবে, সমাধানটি সম্ভাব্য ক্লাস্টারিং / শ্রেণিবিন্যাসের আকারে আসবে, যদিও এটি প্রয়োজনীয় নয়। ব্যবহারিক ধারণাগুলি যেমন আনুষ্ঠানিক পদ্ধতির হয় তেমনভাবে স্বাগত জানানো হয়। z- র ঞ কুই ঞ
এখনও অবধি, আমি উচ্চতর বনাম নিম্ন স্কোর (যেখানে ) এর সাথে প্রশ্নের সাথে সম্ভাব্যতার যে তারা প্রতারণা করেছে তার মোটামুটি সূচক)। উদাহরণস্বরূপ, আমি ব্যক্তিদের অনুসারে বাছাই এবং তারপরে ব্যক্তির প্রশ্ন স্কোরগুলির ক্রমান্বয়ে জোড়া পরিকল্পনা করেছি। আমি সেই ব্যক্তির জন্য স্কোরের গড় পারস্পরিক সম্পর্ক যার মানগুলি এর কোয়ান্টাইলের চেয়ে বেশি ছিল , একটি ফাংশন হিসাবে । উভয় পদ্ধতির জন্য কোন সুস্পষ্ট নিদর্শন। কুই ঞ - z- র ঞ কুই ঞ - z- র ঞ কুই ঞ - z- র ঞএনটিজ কুই ঞ - z- র ঞএন
হালনাগাদ:
আমি @SheldonCooper থেকে ধারণা ও সহায়ক মিশ্রন শেষ পর্যন্ত Freakonomics কাগজ যে @whuber আমার দিকে ইঙ্গিত করলেন। অন্যান্য ধারণা / মন্তব্য / সমালোচনা স্বাগত জানায়।
যাক ব্যক্তি হতে 'র প্রশ্নে বাইনারি স্কোর । আইটেমের প্রতিক্রিয়া মডেল অনুমান করুন যেখানে আইটেমের পরামিতি এবং একটি সুপ্ত দক্ষতার পরিবর্তনশীল ((আরও জটিল মডেলটি প্রতিস্থাপন করা যেতে পারে; আমি আমি আমার অ্যাপ্লিকেশনটিতে 2PL ব্যবহার করছি) আমি যেমন আমার মূল পোস্টে উল্লেখ করেছি, আমার কাছে পৃথক ডেটাসেট different {y_ {ij} \} (বিভিন্ন আইটেম, একই ব্যক্তি) থেকে যোগ্যতার ভেরিয়েবলের \ hat {q_j estima এর অনুমান আছে on যা প্রতারণা সম্ভব ছিল না Spec বিশেষত, \ টুপি {কি_জে} উপরের মত একই আইটেমের প্রতিক্রিয়া মডেল থেকে অনুশীলনমূলক বয়েস অনুমান। ঞ আমি ঠ ণ ছ আমি টন ( পি দ ( এক্স আমি ঞ = 1 | z- র ঞ ) = β আমি + + z- র ঞ , β আমি z- র ঞ ^ কুই ঞ { Y আমি ঞ } ^ কুই ঞ
, আইটেমের এবং ব্যক্তির যোগ্যতার উপর শর্তসাপেক্ষে পরিদর্শন করা স্কোরের সম্ভাবনা যেখানে সম্ভাব্য সম্ভাবনা একটি সঠিক প্রতিক্রিয়া, এবং হ'ল বিপরীত । তারপর, আইটেম এবং ব্যক্তির বৈশিষ্ট্যের উপর শর্তাধীন, যুগ্ম সম্ভাবনা যে ব্যক্তি পর্যবেক্ষণ রয়েছে হয় এবং একইভাবে, ঐ আইটেমটির যৌথ সম্ভাব্যতা পর্যবেক্ষণ রয়েছে পি আমি ঞ = পি দ ( এক্স আমি ঞ = এক্স আমি ঞ | ^ β আমি , ^ কুই ঞ ) = পি আমি ঞ ( ^ β আমি , ^ কুই ঞ ) এক্স আমি ঞ ( 1 - পি আমি ঞ ( ^ β i , ^ q j ) ) 1 - xPij(
আমি চেষ্টা করেছি একটি অতিরিক্ত পদক্ষেপ হ'ল কম-বেশি সম্ভাব্য ব্যক্তিদের (অর্থাৎ সর্বাধিক সজ্জিত পি_জে মানগুলির সাথে নিযুক্ত ব্যক্তি) এর r% নেওয়া, তাদের পর্যবেক্ষণ করা স্কোর x_j এর মধ্যবর্তী দূরত্ব গণনা করা (যা কম আর এর সাথে ব্যক্তিদের সাথে সম্পর্কযুক্ত হওয়া উচিত, কে সম্ভাব্য প্রতারক), এবং এটি r = 0.001, 0.002, ..., 1.000 এর জন্য প্লট করুন। গড় দূরত্ব r = 0.001 থেকে r = 0.025 এর জন্য বৃদ্ধি পায়, সর্বাধিক পৌঁছে যায় এবং তারপরে ধীরে ধীরে কমপক্ষে r = 1 এ নেমে যায় I আমি যা আশা করছিলাম ঠিক তা নয়।