লিনাক্সে zfs raidz পুলের জন্য একটি পার্টিশনের ক্ষেত্রের আকার পরিবর্তন করা কি সম্ভব?


9

আমি ভার্চুয়াল ডিভাইসের সাহায্যে লিনাক্সের একটি জেডএফএস রেইডজ পুলটি নতুন ডিস্কে স্থানান্তরিত করেছি যা স্পার ফাইল ছিল। আমি ডিস্কগুলিতে পার্টিশনগুলি ব্যবহার করেছি কারণ ডিস্কগুলির প্রতিটি 1.9T এর আকার বিভিন্ন। যুক্ত করার জন্য সর্বশেষ ডিস্কটি একটি 4 টিবি ডিস্ক এবং আমি পুলটিতে যুক্ত করার জন্য 1.9T পার্টিশন সহ এটি অন্য হিসাবে বিভাজন করেছি। এটি একটি জিপিটি পার্টিশন টেবিল ব্যবহার করছে। আমি 4T ডিস্কের 1.9T পার্টিশনের সাথে শেষ ফাইলটি প্রতিস্থাপন করার চেষ্টা করার সময় আমি নিম্নলিখিতটি পাই

zpool replace -f zfs_raid /zfs_jbod/zfs_raid/zfs.2 /dev/sdd1 
cannot replace /zfs_jbod/zfs_raid/zfs.2 with /dev/sdd1: devices have different sector alignment

আমি কীভাবে পার্টিশন সেক্টরের আকারটিকে অন্যদের মতো 512 হিসাবে পরিবর্তন করতে পারি বা এটি ব্যর্থ হয়ে অন্য পুলের ডিভাইসগুলিকে 4024 এ পরিবর্তন করা সম্ভব? দৃশ্যত লজিকাল সেক্টরের মাপগুলি সমস্ত 512

cat /sys/block/sdd/queue/hw_sector_size
Disk /dev/sdd: 4000.8 GB, 4000787030016 bytes, 7814037168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

যেহেতু আমি ডিস্কটিকে পুনরায় বিভাজনিত করেছিলাম যার মধ্যে মূল 4 র্থ ফাইল ভিত্তিক ডিভাইস রয়েছে যা আমি প্রতিস্থাপনের চেষ্টা করছি কিন্তু এটি কার্যকর হয়নি, আমি ডিভাইস ফাইলটি পুনরায় তৈরি করেছি যাতে এটি বর্তমানে পুনরায় পরিবর্তনশীল।

zpool স্থিতি আউটপুট:

NAME                            STATE     READ WRITE CKSUM
zfs_raid                        DEGRADED     0     0     0
  raidz1-0                      DEGRADED     0     0     0
    sda3                        ONLINE       0     0     0
    sdc2                        ONLINE       0     0     0
    sdb1                        ONLINE       0     0     0
    replacing-3                 OFFLINE      0     0     0
      /zfs_jbod/zfs_raid/zfs.2  OFFLINE      0     0     0
      /mnt/butter2/zfs.4        ONLINE       0     0     0  (resilvering)

পরিবর্তে আপনি কি zfs সংযুক্তি করতে পারবেন না zfs_ ভয় <ফাইল> <ডিভাইস> এবং সিঙ্কের পরে zfs বিচ্ছিন্ন zfs_ ভয় <file>
BitsOfNix

5 তম ডিভাইস সংযুক্তি কি অপরিবর্তনীয়ভাবে অ্যারে প্রসারিত করবে না? বা সম্ভবত আপনি একটি অতিরিক্ত যোগ করার মতো কিছু বলতে চান?
ব্যারিম্যাক

অতিরিক্ত যোগ না করা বা নতুন ডিস্ক যোগ না করা, জপপুল সংযুক্তি পুলটি পুরানো_দেখাগুলি নতুন_দেখানো, এটি পুরানো_দেবতাকে নতুন_দেবসে প্রতিবিম্বিত করবে, তারপরে আপনি পুনর্নির্মাণের পরে আপনার আয়না থেকে পুরানো_দেবতাকে বিচ্ছিন্ন করুন: ডকস.ওরকল / সিডি / E26502_01/ html/ E29007/ gayrd.html # স্ক্রোলটোক <- সংযুক্তি / বিচ্ছিন্নকরণ সম্পর্কিত তথ্য এবং অ্যাড এবং সংযুক্তির মধ্যে পার্থক্য।
বিটস অফনিক্স

দুর্ভাগ্যক্রমে "প্রত্যাশিত / dev / sdd1 সাথে /zfs_jbod/zfs_raid/zfs.2 সংযুক্ত করতে পারবেন না: এটি কেবল আয়না এবং শীর্ষ স্তরের ডিস্কগুলিতে সংযুক্ত করতে পারে"
ব্যারিম্যাক

অভিযানের লেআউটটি দেখতে আপনি কি আপনার বর্তমান zpool স্থিতি zfs_ ভয় আউটপুট রাখতে পারেন?
বিটস অফনিক্স

উত্তর:


4

আমি প্রয়োজনীয় বিকল্পটি খুঁজে পেয়েছি! পুলটি বর্তমানে নিম্নলিখিত কমান্ডটি দেওয়ার পরে নতুন পার্টিশনটি পুনরায় বিভাজন করছে:

 zpool replace  -o ashift=9 zfs_raid <virtual device> /dev/sdd1

যদিও এটি সম্ভব, এটি যুক্তিযুক্ত নয় কারণ আপনি 4k টাইপ ড্রাইভকে 512 বি হিসাবে লেখাতে বাধ্য করে ভয়ানক পারফরম্যান্স পান। আমি যে কঠিন উপায়ে যুক্ত করা উচিত তা শিখেছি

-o ashift=12 

পুলটি তৈরি করার সময় পরে এটিকে পুনরায় তৈরি করা এড়াতে হবে কারণ বর্তমানে 4 কে সেক্টরের আকারে 'মাইগ্রেট' করা সম্ভব নয়।

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.