আমি পর্যায়ক্রমে পরিমাপ করা মান সংরক্ষণ করতে মঙ্গোডিবি ব্যবহার করি। প্রতি 100 ডলার এমএসে একগুচ্ছ মানগুলি ডকুমেন্ট হিসাবে .োকানো হয়। এটি দুর্দান্ত কাজ করে তবে আমি পারফরম্যান্স সম্পর্কিত সমস্যা নিয়ে চিন্তিত। (আমি নিরাপদ সন্নিবেশ ব্যবহার করি, মনে হয় পাইমঙ্গোতে এটি ডিফল্ট)
মঙ্গোড হার্ড ডিস্কে সংরক্ষণ করতে সক্ষম হওয়ার চেয়ে প্রতি সেকেন্ডে আরও বেশি সন্নিবেশকারী থাকলে কী হবে? কোনও সতর্কতা আসবে নাকি তা নিঃশব্দে ব্যর্থ হবে?
লেখার বোঝা নিরীক্ষণের জন্য কি কোনও পদ্ধতি আছে? আমি কেবল এটি পেয়েছি db.serverStatus().writeBacksQueued
যা আমি যখন কল করি তখন সর্বদা মিথ্যাতে সেট থাকে। লেখার সারি পূরণ করার জন্য আমার কতটা ডেটা sertোকাতে হবে তা আমি কীভাবে পরীক্ষা করতে পারি?
mongostat
লকগুলি প্রদর্শন করে। এই যে আমার সম্পর্কে উদ্বিগ্ন হওয়া উচিত?
insert query update delete getmore command flushes mapped vsize res faults locked db idx miss % qr|qw ar|aw netIn netOut conn repl time
*117 *0 *0 *0 0 2|0 0 17.4g 35.3g 3.76g 0 .:6.5% 0 0|0 0|0 124b 6k 2 SLV 09:58:10
*111 *0 *0 *0 0 2|0 0 17.4g 35.3g 3.76g 0 .:0.8% 0 0|0 0|0 124b 6k 2 SLV 09:58:11
*111 *0 *0 *0 0 2|0 0 17.4g 35.3g 3.76g 0 .:4.2% 0 0|0 0|0 124b 6k 2 SLV 09:58:1
আমার কি লক লেখার বিষয়ে চিন্তা করতে হবে? লেখার লকড সময়কালীন একটি সন্নিবেশের সাথে কী ঘটে? এটি কি সারিবদ্ধ এবং পরে সংরক্ষণ করা হয়?
আমি একজন মাস্টার এবং একটি ক্রীতদাস ব্যবহার করে একটি সাধারণ প্রতিলিপি সেটআপ সম্পর্কে ভাবছি। প্রাথমিক সিঙ্ক বা একটি রিসাইক প্রক্রিয়া ডেটাবেসগুলিকে লক করে দেয়?
(আমি ২.৪.৩ সংস্করণ ব্যবহার করছি)
আপডেট: আমি মনে করি আংশিকভাবে আমার নিজের প্রশ্নের উত্তর দিয়েছি। আমি একটি ছোট পরীক্ষার ডকুমেন্টটি প্রবেশের সময় লুপটি ব্যবহার করে সেকেন্ডে 12.000 পর্যন্ত সেকেন্ডে পেতে সক্ষম হয়েছি। তবে কিউআর | কিউডব্লিউ এখনও দেখায় যে এখানে পড়ার- এবং লেখার সারিটি খালি রয়েছে:
insert query update delete getmore command flushes mapped vsize res faults locked db idx miss % qr|qw ar|aw netIn netOut conn repl time
11234 *0 2 *0 1563 1|0 1 21.9g 44.3g 1.22g 0 testdb:58.9% 0 1|0 1|1 797k 980k 6 PRI 10:26:32
12768 *0 2 *0 1284 1|0 0 21.9g 44.3g 1.22g 0 testdb:58.0% 0 0|0 0|1 881k 1m 6 PRI 10:26:33
12839 *0 2 *0 1231 1|0 0 21.9g 44.3g 1.22g 0 testdb:60.3% 0 0|0 0|1 883k 1m 6 PRI 10:26:34
12701 *0 2 *0 910 1|0 0 21.9g 44.3g 1.22g 0 testdb:61.8% 0 0|0 0|1 858k 1m 6 PRI 10:26:35
12241 *0 2 *0 1206 1|0 0 21.9g 44.3g 1.22g 0 testdb:56.7% 0 0|0 0|0 843k 1m 6 PRI 10:26:36
11581 *0 2 *0 1406 1|0 0 21.9g 44.3g 1.22g 0 testdb:61.8% 0 0|0 0|1 811k 1m 6 PRI 10:26:37
8719 *0 2 *0 1210 1|0 0 21.9g 44.3g 1.22g 0 testdb:43.8% 0 0|0 0|1 618k 762k 6 PRI 10:26:38
11429 *0 2 *0 1469 1|0 0 21.9g 44.3g 1.22g 0 testdb:60.6% 0 0|0 0|1 804k 993k 6 PRI 10:26:39
12779 *0 2 *0 1092 1|0 0 21.9g 44.3g 1.22g 0 testdb:60.2% 0 1|0 0|1 872k 1m 6 PRI 10:26:40
12757 *0 2 *0 436 1|0 0 21.9g 44.3g 1.22g 0 testdb:59.7% 0 0|0 0|1 838k 432k 6 PRI 10:26:41
আমি মনে করি এর অর্থ এই যে একা সন্নিবেশ করানো অনেক সমস্যার কারণ হবে না: "কুইউজগুলি স্পাইকের দিকে ঝুঁকবে যদি আপনি অন্য লেখার ভারী ওপরের পাশাপাশি প্রচুর রাইটিং অপারেশন যেমন বড় পরিসীমা অপসারণের কাজ করে থাকেন।" ( এখানে পাওয়া ]
আমার উন্মুক্ত প্রশ্ন: দীর্ঘমেয়াদে লেখার সারিটি বাড়লে আমার ডেটা কী হবে?