ক্ষমতা একটি অনানুষ্ঠানিক শব্দ। এটি মডেলের জটিলতার জন্য খুব কাছাকাছি (প্রতিশব্দ না হলে)। কোনও মডেল কীভাবে জটিল কোনও প্যাটার্ন বা সম্পর্ক প্রকাশ করতে পারে তা নিয়ে কথা বলার উপায়। আপনি উচ্চ ক্ষমতা সহ একটি মডেল কম ক্ষমতা সহ একটি মডেল তুলনায় আরও ভেরিয়েবলের মধ্যে আরও সম্পর্ক মডেল করতে সক্ষম হতে পারে আশা করতে পারেন।
ক্ষমতার কথাবার্তা সংজ্ঞা থেকে সাদৃশ্য আঁকতে, আপনি এটিকে আরও বেশি করে ডেটা থেকে শেখার কোনও মডেলের দক্ষতা হিসাবে ভাবতে পারেন, যতক্ষণ না এটি সম্পূর্ণ তথ্য দিয়ে পূর্ণ হয়।
সক্ষমতা আনুষ্ঠানিককরণ এবং এর জন্য একটি সংখ্যাসূচক মান গণনা করার বিভিন্ন উপায় রয়েছে, তবে গুরুত্বপূর্ণ বিষয় হ'ল সামর্থ্যের কিছু সম্ভাব্য "অপারেশনালাইজেশন" (প্রায় একইভাবে, কেউ যদি সৌন্দর্যের গণনা করার সূত্র নিয়ে আসে তবে আপনি বুঝতে পারবেন যে সূত্রটি সৌন্দর্যের একমাত্র পতনীয় ব্যাখ্যা)।
ভিসি ডাইমেনশন হ'ল একটি গাণিতিকভাবে শক্তির কঠোর গঠন। যাইহোক, কোনও মডেলের ভিসি মাত্রা এবং ডেটা মাপসই করার মডেলের আসল দক্ষতার মধ্যে একটি বড় ব্যবধান থাকতে পারে। যদিও ভিসি ডিমে জেনে মডেলটির সাধারণীকরণের ত্রুটিটির সীমাবদ্ধতা দেয় তা স্নায়ুবিক নেটওয়ার্কগুলির সাথে দরকারী হিসাবে এটি সাধারণত খুব আলগা।
গবেষণার আরও একটি লাইন দেখুন সক্ষমতা একটি পরিমাপ হিসাবে নিউরাল নেটওয়ার্কে ওজন ম্যাট্রিকের বর্ণালী আদর্শ ব্যবহার করা। এটি বোঝার একটি উপায় হ'ল বর্ণালী আদর্শটি নেটওয়ার্কের লিপসিৎজ ধ্রুবককে সীমাবদ্ধ করে।
কোনও মডেলের দক্ষতা অনুমান করার সর্বাধিক সাধারণ উপায় হ'ল পরামিতিগুলির সংখ্যা গণনা। যত বেশি প্যারামিটার, সাধারণের ক্ষমতা তত বেশি। অবশ্যই, প্রায়শই একটি ছোট নেটওয়ার্ক বৃহত্তর নেটওয়ার্কের চেয়ে আরও জটিল ডেটা মডেল করতে শেখে, তাই এই পরিমাপটিও নিখুঁত।
ক্ষমতা পরিমাপের আরেকটি উপায় হতে পারে আপনার মডেলটিকে এলোমেলো লেবেলগুলির সাথে প্রশিক্ষণ দেওয়া ( নিশাবুর এট। আল ) - যদি আপনার নেটওয়ার্কটি এলোমেলো লেবেলগুলির সাথে সংখ্যার ইনপুটগুলি সঠিকভাবে মনে করতে পারে তবে এটি মূলত দেখায় যে মডেলটি সমস্ত স্মরণ করার ক্ষমতা রাখে ডেটা পৃথকভাবে পয়েন্ট। যত বেশি ইনপুট / আউটপুট জোড়া "শিখতে" পারা যায়, তার ক্ষমতাও তত বেশি।
ε