এই প্রশ্নটি আমার নজরে আনার জন্য আর্য্যকে ধন্যবাদ জানাই।
অন্যদের হিসাবে উল্লেখ করেছি, (1) উত্তর হ্যাঁ , এবং গবেষণামূলক ঝুঁকি যথাসম্ভব সহজ পদ্ধতি সি অর্জন করা ও ( ( ডি/ ε)লগ( 1 / ε ) ) নমুনা জটিলতা (Vapnik এবং Chervonenkis, 1974 দেখ; ব্লুমার, এহরনফুফ্ট, হসেলার এবং ওয়ারমুথ, 1989)।
(2) হিসাবে, জানা আসলে স্পেস বিদ্যমান আছে যে সি
যেখানে কোন সঠিক লার্নিং আলগোরিদিম জাতিসংঘের বেশী ভালো Ω ( ( ডি/ ε)লগ( 1 / ε ) ) নমুনা জটিলতা, তাই সঠিক শিক্ষা অনুকূল অর্জন করতে পারে না O(d/ε) নমুনা জটিলতা। আমার জানা মতে, এই ঘটনাটি আসলে কখনই প্রকাশিত হয় নি, তবে ড্যানিয়েলি এবং শ্যালেভ-শোয়ার্টজ (সিওএলটি 2014) সম্পর্কিত মূল যুক্তিযুক্ত (মূলত মাল্টিক্লাস লার্নিংয়ের ক্ষেত্রে আলাদা, তবে সম্পর্কিত, প্রশ্নের জন্য প্রস্তুত করা হয়েছে)।
সহজ ক্ষেত্রে বিবেচনা করুন d=1 , এবং স্থান করা X যেমন {1,2,...,1/ε} , এবং C সিঙ্গেলনস fz(x):=I[x=z],z∈X : অর্থাৎ, C প্রতিটি শ্রেণিবদ্ধ X থেকে এক পয়েন্টকে 1 এবং অন্যটি 0 হিসাবে শ্রেণিবদ্ধ করে0। আবদ্ধ নিম্ন, একটি র্যান্ডম Singleton যেমন লক্ষ্য ফাংশন নিতে fx∗ , যেখানে x∗∼Uniform(X) , এবং P , এর প্রান্তিক বন্টন X , উপর অভিন্ন হয় X∖{x∗} । এখন শিক্ষার্থী লেবেল কোনো উদাহরণ কখনো দেখেনি 1 , কিন্তু এটা একটি বিন্দু নির্বাচন করা আবশ্যক z জন্য অনুমান লেবেল করা 1 (গুরুত্বপূর্ণভাবে, `সব শূন্য '' ফাংশন না এ Cকোন সঠিক শিক্ষার্থী যাতে আবশ্যক কিছু অনুমান z ), এবং না হওয়া পর্যন্ত প্রতিটি বিন্দু দেখেনি X∖{x∗} এটা অন্তত হয়েছে 1/2 ভুল মনন (অর্থাত, তার এর অবর সম্ভাবনা সুযোগ fz থাকার z≠x∗ কমপক্ষে হয় 1/2 )। কুপন সংগ্রাহক যুক্তি বোঝা তা করতে হবে Ω((1/ε)log(1/ε))নমুনা প্রতিটি বিন্দু দেখতে X∖{x∗} । সুতরাং এটি যথাযথ সকল Ω((1/ε)log(1/ε)) জন্য Ω ( ( 1 / ε ) লগ ( 1 / ε ) ) এর নিম্ন সীমানা প্রমাণ করে ।
সাধারণ d>1 , আমরা X{1,2,...,d/(4ε)} হিসাবে গ্রহণ করি । । । , ঘ / ( 4 ε ) } গ্রহণ C যেমন ক্লাসিফায়ার IA সেটের জন্য A⊂X আকারের ঠিক d থেকে এলোমেলোভাবে লক্ষ্য ফাংশন চয়ন C আর লাগবে P মাত্র পয়েন্ট আবার অভিন্ন যেমন লক্ষ্য ফাংশন শ্রেণী 0 ( সুতরাং শিক্ষার্থী কখনই 1 লেবেলযুক্ত পয়েন্টটি দেখতে পায় না1)। তারপর কুপন-সংগ্রাহক আর্গুমেন্টের একটি সাধারণীকরণ বোঝা দরকার Ω((d/ε)log(1/ε)) নমুনা অন্তত দেখতে |X|−2d থেকে স্বতন্ত্র পয়েন্ট X , এবং এই অনেক স্বতন্ত্র পয়েন্ট কোন সঠিক শিক্ষার্থী কমপক্ষে হয়েছে দেখে 1/3 তার চেয়ে অনেক বেশী হওয়ার সম্ভাবনা d/4 তার অনুমান এর A এর d তার মনোনীত হাইপোথিসিস পয়েন্ট ভুল hAতার ত্রুটি হার মানে চেয়ে বেশী ε । তাই এই ক্ষেত্রে, সেখানে চেয়ে ছোট নমুনা জটিলতা সঙ্গে কোন সঠিক শিক্ষার্থী হয় Ω((d/ε)log(1/ε)) , যা কোন সঠিক শিক্ষার্থী মানে অর্জন অনুকূল নমুনা জটিলতা O(d/ε) ।
মনে রাখবেন যে ফলাফলটি C নির্মিত স্পেসের সাথে বেশ সুনির্দিষ্ট । C এমন জায়গাগুলি রয়েছে যেখানে যথাযথ শিখররা O(d/ε) অনুকূল নমুনা জটিলতা অর্জন করতে পারে এবং সত্যিকার অর্থেও সম্পূর্ণ পূর্ণ অভিব্যক্তি O((d/ε)+(1/ε)log(1/δ)) থেকে ( হ্যানেকে, ২০১a এ)। জেনারেল ইআরএম শিখার জন্য কিছু উপরের এবং নিম্ন সীমাগুলি (হান্নেক, ২০১b বি) এ তৈরি করা হয়েছে, স্পেস সি এর বৈশিষ্ট্যগুলির পরিমাণ অনুসারে পরিমিতCপাশাপাশি আরও কয়েকটি বিশেষায়িত কেস নিয়ে আলোচনা করার ক্ষেত্রে যেখানে নির্দিষ্ট যথাযথ শিখররা মাঝে মাঝে অনুকূল নমুনা জটিলতা অর্জন করতে পারে।
তথ্যসূত্র:
ভ্যাপনিক এবং চেরভোনেনকিস (1974)। প্যাটার্ন স্বীকৃতি তত্ত্ব। নওকা, মস্কো, 1974।
ব্লুমার, এহরনফুফ্ট, হসেলার এবং ওয়ারমুথ (1989)। শিক্ষণীয়তা এবং ভ্যাপনিক-চেরভোনেনকিসের মাত্রা। সংস্থার কম্পিউটিং মেশিনারি জার্নাল, 36 (4): 929 )965।
ড্যানেলি এবং শ্যালেভ-শোয়ার্টজ (2014)। মাল্টিক্লাস সমস্যার জন্য সর্বোত্তম শিক্ষানবিস। শেখার তত্ত্বের 27 তম সম্মেলনের কার্যক্রমে।
হানকে (২০১a এ)। পিএসি শেখার অনুকূল নমুনা জটিলতা। মেশিন লার্নিং রিসার্চ জার্নাল, খণ্ড। 17 (38), পৃষ্ঠা 1-15।
হ্যানেকে (2016 বি)। বেশ কয়েকটি শিক্ষাগত অ্যালগরিদমের জন্য পরিশোধিত ত্রুটি সীমাবদ্ধ। মেশিন লার্নিং রিসার্চ জার্নাল, খণ্ড। 17 (135), পৃষ্ঠা 1-55।