আমাদের ইন্ট্রানেটে একটি ফোল্ডার কাঠামো রয়েছে যার মধ্যে প্রায় 800,000 ফাইল রয়েছে প্রায় 4,000 ফোল্ডারে বিভক্ত। আমাদের ডিএমজেডের একটি ছোট ক্লাস্টারের মেশিনে এটি সিঙ্ক্রোনাইজ করা দরকার। কাঠামোর গভীরতা খুব অগভীর (এটি কখনও কখনও দুই স্তরের বেশি অতিক্রম করে না)।
বেশিরভাগ ফাইল কখনও পরিবর্তন হয় না, প্রতিদিন কয়েক হাজার আপডেটেড ফাইল এবং 1-2-২০০০ নতুন ফাইল থাকে। ডেটা হ'ল historicalতিহাসিক রিপোর্টিং ডেটা বজায় রাখা হচ্ছে যেখানে উত্সের ডেটা শুচি করা হয়েছে (অর্থাত্ এগুলি চূড়ান্ত প্রতিবেদনগুলির জন্য যার উত্সের ডেটা যথেষ্ট পুরানো যা আমরা সংরক্ষণাগারভুক্ত এবং মুছে ফেলি)। এটি একটি যুক্তিসঙ্গত সময় ফ্রেমে ঘটতে পারে তা প্রদত্ত প্রতি দিন একবার সিঙ্ক্রোনাইজিং যথেষ্ট। প্রতিবেদনগুলি রাতারাতি উত্পন্ন হয় এবং আমরা নির্ধারিত কাজ হিসাবে সকালে প্রথম জিনিসটি সিঙ্ক করি।
স্পষ্টতই যেহেতু খুব কম ফাইলগুলি নিয়মিতভাবে পরিবর্তন হয়, তাই ইনক্রিমেন্টাল কপি থেকে আমরা প্রচুর উপকার পেতে পারি। আমরা Rsync চেষ্টা করেছি, তবে এটি "বিল্ডিং ফাইল তালিকা" অপারেশনটি সম্পূর্ণ করতে আট থেকে বারো ঘন্টা সময় নিতে পারে । এটি স্পষ্ট যে আমরা কীভাবে আরএসসিএনসি সক্ষম তা দ্রুত বাড়িয়ে তুলছি (12 ঘন্টা সময়ের ফ্রেমটি অনেক দীর্ঘ)।
স্ট্রাকচারগুলি সিঙ্ক্রোনাইজ করার জন্য আমরা রেপ্লিওয়েব নামে আরেকটি সরঞ্জাম ব্যবহার করছিলাম এবং এটি প্রায় 45 মিনিটের মধ্যে একটি বর্ধিত স্থানান্তর করতে পারে। তবে মনে হয় আমরা এর সীমা অতিক্রম করেছি, ফাইলগুলি যখন নেই তখন এটি মুছে ফেলা হিসাবে দেখা শুরু করেছে (সম্ভবত কিছু অভ্যন্তরীণ মেমরি কাঠামো শেষ হয়ে গেছে, আমরা নিশ্চিত নই)।
অন্য কেউ কি এই ধরণের বড় আকারের সিঙ্ক্রোনাইজেশন প্রকল্পে চলেছে? সিঙ্ক্রোনাইজেশনের জন্য বিশাল আকারের ফাইল স্ট্রাকচারগুলি হ্যান্ডেল করার জন্য কি এমন কিছু ডিজাইন করা আছে?