কল্পনা করুন আপনি একটি নিউরাল নেটওয়ার্ক 100 বার সিংহের একটি ছবি দেখিয়েছেন এবং "বিপজ্জনক" লেবেল দিয়েছেন, সুতরাং এটি শিখেছে যে সিংহগুলি বিপজ্জনক।
এখন কল্পনা করুন যে এর আগে আপনি এটি সিংহের লক্ষ লক্ষ চিত্র দেখিয়েছেন এবং বিকল্পভাবে এটিকে "বিপজ্জনক" এবং "বিপজ্জনক নয়" হিসাবে চিহ্নিত করেছেন, যেমন সিংহের বিপজ্জনক হওয়ার সম্ভাবনা 50%।
তবে শেষবারের মতো 100 বার স্নায়ুটিকে "বিপজ্জনক" হিসাবে সম্পর্কিত সম্পর্কে খুব ইতিবাচক হওয়ার দিকে স্নায়বিক নেটওয়ার্ককে ঠেলে দিয়েছে, এভাবে শেষ মিলিয়ন পাঠকে উপেক্ষা করে।
সুতরাং, মনে হচ্ছে স্নায়ু নেটওয়ার্কগুলির মধ্যে একটি ত্রুটি রয়েছে, সাম্প্রতিক প্রমাণগুলির ভিত্তিতে তারা খুব দ্রুত তাদের মন পরিবর্তন করতে পারে। বিশেষত যদি সেই আগের প্রমাণটি মাঝখানে ছিল।
এমন কোনও নিউরাল নেটওয়ার্ক মডেল রয়েছে যা এটি কতটা প্রমাণ দেখেছে তার উপর নজর রাখে? (বা এই দ্বারা লার্নিং হার হ্রাস লেট সমতূল্য হবে যেখানে বিচারের সংখ্যা?)