বলুন যে আমাদের n, V_n দৈর্ঘ্যের কোনও পূর্ণসংখ্যার ভেক্টর প্রতিনিধিত্ব আছে
এই ভেক্টরটি একটি মেশিন লার্নিং অ্যালগরিদমের ইনপুট।
প্রথম প্রশ্ন: কোন ধরণের উপস্থাপনের জন্য নিউরাল নেটওয়ার্ক বা অন্য কোনও ভেক্টর-টু-বিট এমএল ম্যাপিং ব্যবহার করে এন এর প্রাথমিকতা / সংমিশ্রণতা শেখা সম্ভব। এটি নিখুঁত তাত্ত্বিক - স্নায়বিক নেটওয়ার্ক সম্ভবত আকারে আনবাউন্ড হতে পারে।
ইতিমধ্যে প্রাথমিকতা পরীক্ষার সাথে সম্পর্কিত এমন উপস্থাপনাগুলি এড়িয়ে চলুন যেমন: এন এর কারণগুলির নালকে পৃথক করা তালিকা, বা মিলার রবিনের মতো একটি যৌগিক সাক্ষীর অস্তিত্ব। পরিবর্তে আসুন বিভিন্ন রেডিয়াসে উপস্থাপনাগুলি বা (সম্ভবত মাল্টিভারিয়েট) পলিনোমিয়ালের সহগ ভেক্টর হিসাবে উপস্থাপনাগুলিতে মনোনিবেশ করি। বা অন্যান্য বিদেশী যেমন পোস্ট করা হয়।
দ্বিতীয় প্রশ্ন: কিসের জন্য, যদি কোনওরকম, এমএল অ্যালগরিদম উপস্থাপনা ভেক্টরের নির্দিষ্টতা নির্বিশেষে এগুলি শিখতে পারে তবে তা কি অসম্ভব? আবার, আসুন 'তুচ্ছতার দ্বারা নিষিদ্ধ' উপস্থাপনা ছেড়ে যাক যার উদাহরণগুলির উপরে উপরে দেওয়া হয়েছে।
মেশিন লার্নিং অ্যালগরিদমের আউটপুট একক বিট, প্রাইমের জন্য 0, সংমিশ্রনের জন্য 1।
এই প্রশ্নের শিরোনামটি আমার মূল্যায়ণকে প্রতিফলিত করে যে প্রশ্নের 1 জন্য sensকমত্যটি 'অজানা' এবং প্রশ্ন 2 এর sensকমত্য সম্ভবত 'সবচেয়ে এমএল অ্যালগরিদম'। আমি এর চেয়ে আরও কিছু জানি না বলে আমি এটি জিজ্ঞাসা করছি এবং আমি আশা করছি যে কেউ পথ নির্দেশ করতে পারে।
এই উদ্দেশ্যটির মধ্যে যদি প্রধানত প্রেরণা থাকে তবে তা হ'ল: নির্দিষ্ট আকারের নিউরাল নেটওয়ার্কে বন্দী হওয়া প্রাইমসের সেটটির কাঠামোর কোনও 'তথ্য তাত্ত্বিক' সীমা আছে কি? যেহেতু আমি এই ধরণের পরিভাষায় বিশেষজ্ঞ নই তবে আমাকে এই ধারণাটি কয়েকবার পুনর্বিবেচনা করতে দিন এবং দেখুন যে আমি মন্টে-কার্লো ধারণার সাথে সান্নিধ্য পেয়েছি: প্রাইমসের সেটটির অ্যালগরিদমিক জটিলতা কী? উপরে বর্ণিত ইনপুট এবং আউটপুটগুলির সাথে নিউরাল নেটওয়ার্কে একই কাঠামোটি ক্যাপচার করতে প্রাইমগুলি ডায়োফানটাইন পুনরাবৃত্তভাবে গণনাযোগ্য (এবং একটি নির্দিষ্ট বৃহত ডায়োফানটাইন সমীকরণকে সন্তুষ্ট করতে পারে ) সত্য হতে পারে কি?