চুক্তিটি এখানে:
প্রযুক্তিগতভাবে আপনি সত্য বাক্যটি লিখেছিলেন (উভয় মডেলই যথেষ্ট পরিমাণে প্যারামিটার দেওয়া কোনও 'খুব বেশি পাগল নয়' ফাংশনটি আনুমানিক করতে পারে), তবে এই বাক্যগুলি আপনাকে কোথাও পাবেন না!
কেন এমন? ঠিক আছে, সার্বজনীন আনুমানিক তত্ত্বটি বা অন্য কোনও আনুষ্ঠানিক প্রমাণটি ঘনিষ্ঠভাবে দেখুন, যদি নিউরোন থাকে তবে নিউরাল নেটওয়ার্ক যে কোনও f (x) গণনা করতে পারে।
আমি যে ধরণের প্রমাণগুলি দেখেছি তার সবগুলিই কেবল একটি লুকানো স্তর ব্যবহার করে।
কিছুটা স্বজ্ঞাততার জন্য এখানে http://neuranetworksandDPlearning.com/chap5.html একবার দেখুন । কাজগুলি দেখানো হচ্ছে যে আপনি যদি কেবল একটি স্তর ব্যবহার করেন তবে এক অর্থে প্রয়োজনীয় নিউরনের সংখ্যা দ্রুত বৃদ্ধি পেতে পারে।
সুতরাং, তত্ত্বের ক্ষেত্রে আপনি সঠিক, অনুশীলনে, আপনার কাছে অসীম পরিমাণের স্মৃতি নেই, তাই আপনি সত্যিই 2 ^ 1000 নিউরন নেটকে প্রশিক্ষণ দিতে চান না, তাই না? এমনকি যদি আপনার কাছে অসীম পরিমাণের মেমরি না থাকে তবে অবশ্যই এই নেটটি নিশ্চিত হয়ে যাবে।
আমার মনে, এমএল এর সবচেয়ে গুরুত্বপূর্ণ পয়েন্টটি ব্যবহারিক বিষয়! এর উপর কিছুটা প্রসারিত করা যাক। এখানে আসল বড় সমস্যাটি কীভাবে প্রশিক্ষণের সেটের বাইরে খুব দ্রুত বহুত্ববৃত্তিগুলি বাড়ায় / হ্রাস করে তা নয়। একদমই না. দ্রুত উদাহরণ হিসাবে, যে কোনও ছবির পিক্সেলটি প্রতিটি আরজিবি রঙের জন্য খুব নির্দিষ্ট পরিসরের ([0,255]) এর মধ্যে থাকে যাতে আপনি নিশ্চিত হয়ে বলতে পারেন যে কোনও নতুন নমুনা আপনার প্রশিক্ষণের মানগুলির সীমার মধ্যে থাকবে। না, বড় কথা হ'ল (!) দিয়ে এই তুলনাটি কার্যকর নয়।
আমি প্রস্তাব দিচ্ছি যে আপনি এমএনআইএসটি নিয়ে কিছুটা পরীক্ষা-নিরীক্ষা করবেন, এবং চেষ্টা করুন এবং দেখুন মাত্র একটি একক স্তর ব্যবহার করে আপনি যে আসল ফলাফলটি সামনে আসতে পারেন।
ব্যবহারিক জাল একাধিক লুকানো স্তর ব্যবহার করে, কখনও কখনও কয়েক ডজন স্তর (ভাল, রেসনেট আরও বেশি ...) থাকে। কোন কারণের জন্য. সেই কারণটি প্রমাণিত নয় এবং সাধারণভাবে, নিউরাল নেট এর জন্য একটি আর্কিটেকচার নির্বাচন করা গবেষণার একটি উত্তপ্ত ক্ষেত্র। অন্য কথায়, যদিও আমাদের এখনও আরও জানতে হবে, উভয় মডেল যা আপনি তুলনা করেছেন (লিনিয়ার রিগ্রেশন এবং কেবলমাত্র একটি লুকানো স্তর সহ এনএন), অনেকগুলি ডেটাসেটের জন্য, যা কার্যকর নয়!
যাইহোক, আপনি এমএল এ প্রবেশ করার ক্ষেত্রে, আরও একটি অকেজো উপপাদ্য যা প্রকৃতপক্ষে বর্তমানের গবেষণার ক্ষেত্র-প্যাক (সম্ভবত প্রায় সঠিক) / ভিসি মাত্রা। আমি এটি বোনাস হিসাবে প্রসারিত করব:
যদি সর্বজনীন আনুমানিকতাটি মূলত যদি বলে থাকে যে সীমাহীন পরিমাণে নিউরন দেওয়া হয়েছে তবে আমরা কোনও ফাংশন অনুমান করতে পারি (আপনাকে অনেক ধন্যবাদ?), পিএসি ব্যবহারিক দিক দিয়ে যা বলে, তা হল (ব্যবহারিকভাবে!) অসীম পরিমাণে লেবেলযুক্ত উদাহরণগুলি আমরা যতই কাছাকাছি পেতে পারি আমাদের মডেল মধ্যে সেরা অনুমান করতে চান। এটি একেবারে হাসিখুশি ছিল যখন আমি ব্যবহারিক জালটির জন্য প্রয়োজনীয় কিছু প্রকৃত ত্রুটি হারের মধ্যে কিছু হালকা সম্ভাবনার সাথে যুক্ত হওয়ার জন্য প্রকৃত পরিমাণের উদাহরণ গণনা করি :) এটি মহাবিশ্বে ইলেকট্রনের সংখ্যার চেয়ে বেশি ছিল। পিএস এটি উত্সাহিত করার জন্যও ধরে নেয় যে নমুনাগুলি আইআইডি (এটি কখনও সত্য নয়!)।