দ্রষ্টব্য: আমি এই গণনাগুলি অনুমানমূলকভাবে করেছি, যাতে কিছু ত্রুটি ঘটতে পারে Please দয়া করে এ জাতীয় কোনও ত্রুটি সম্পর্কে অবহিত করুন যাতে আমি এটি সংশোধন করতে পারি।
যে কোনও সিএনএন সাধারণভাবে প্রশিক্ষণের সর্বাধিক সময় পুরো সংযুক্ত স্তরটিতে ত্রুটির পিছনে প্রচারে যায় (চিত্রের আকারের উপর নির্ভর করে)। এছাড়াও সর্বাধিক স্মৃতিও তাদের দ্বারা দখল করা হয়। ভিজিজি নেট প্যারামিটারগুলি সম্পর্কে স্ট্যানফোর্ডের একটি স্লাইড এখানে:
স্পষ্টতই আপনি দেখতে পারেন সম্পূর্ণ সংযুক্ত স্তরগুলি প্যারামিটারগুলির প্রায় 90% অবদান রাখে। সুতরাং সর্বাধিক স্মৃতি তাদের দখল করে আছে।
( 3 ∗ 3 ∗ 3 )( 3 ∗ 3 ∗ 3 )224 ∗ 224224 ∗ 224 ∗ ( 3 ∗ 3 ∗ 3 )64224 ∗ 22464 ∗ 224 ∗ 224 ∗ ( 3 ∗ 3 ∗ 3 ) ≈ 87 ∗ 106
56 ∗ 56 ∗ 25656 ∗ 56( 3 ∗ 3 ∗ 256 )56 ∗ 56256∗56∗56∗(3∗3∗256)≈1850∗106
stride=1
channelsoutput* ( পি আমি এক্স ই ঠ হে তোমার দর্শন লগ করা টন পি ইউ টিh e i gএইচ টি∗ পি আই এক্স ই এল ও ও টি প ইউ টিw i dt h)∗ ( চi l t e rh e i gএইচ টি∗ চi l t e rw i dt h* গ জ একটি এন এন ই ঠ গুলিi n p u t)
দ্রুত জিপিইউ'র জন্য ধন্যবাদ আমরা সহজেই এই বিশাল গণনাগুলি পরিচালনা করতে সক্ষম হয়েছি। তবে এফসি স্তরগুলিতে পুরো ম্যাট্রিক্সটি লোড করা দরকার যা মেমরির সমস্যার কারণ হয়ে দাঁড়ায় যা সাধারণত কনভোলজিকাল স্তরগুলির ক্ষেত্রে হয় না, তাই সমঝোতা স্তরগুলির প্রশিক্ষণ এখনও সহজ। এছাড়াও এগুলি সমস্ত নিজেই জিপিইউ মেমরিতে লোড করতে হবে এবং সিপিইউর র্যাম নয়।
এছাড়াও এখানে অ্যালেক্সনেটের প্যারামিটার চার্ট রয়েছে:
এবং এখানে বিভিন্ন সিএনএন আর্কিটেকচারের পারফরম্যান্স তুলনা করা হয়েছে:
আমি আপনাকে সিএনএন আর্কিটেকচারের কুলুঙ্গিগুলি এবং ক্র্যানিজ সম্পর্কে আরও ভাল করে বোঝার জন্য স্ট্যানফোর্ড ইউনিভার্সিটির সিএস 231n লেকচার 9 পরীক্ষা করে দেখার পরামর্শ দিচ্ছি ।