लिनक्समा ठूला डिस्कहरूसँग साना डिस्कहरू प्रतिस्थापन गर्दै

नमस्ते सबै। नयाँ पाठ्यक्रम समूहको सुरुवातको पूर्वसन्ध्यामा "लिनक्स प्रशासक" हामी हाम्रा विद्यार्थी, साथै पाठ्यक्रम सल्लाहकार, REG.RU कर्पोरेट उत्पादनहरूका लागि प्राविधिक सहयोग विशेषज्ञ - रोमन ट्राभिनले लेखेका उपयोगी सामग्रीहरू प्रकाशित गर्दैछौं।

यस लेखले एरे र फाइल प्रणालीको थप विस्तारको साथ डिस्कहरू प्रतिस्थापन गर्ने र ठूला क्षमताको नयाँ डिस्कहरूमा जानकारी स्थानान्तरण गर्ने 2 मामिलाहरू विचार गर्नेछ। पहिलो केसले समान MBR/MBR वा GPT/GPT विभाजनको साथ डिस्कको प्रतिस्थापनलाई चिन्ता गर्दछ, दोस्रो केसले MBR विभाजनको साथ 2 TB भन्दा बढी क्षमताको डिस्कहरूसँग डिस्कको प्रतिस्थापनको बारेमा चिन्ता गर्दछ, जसमा तपाईंले स्थापना गर्नुपर्नेछ। biosboot विभाजन संग GPT विभाजन। दुबै अवस्थामा, हामीले डाटा स्थानान्तरण गर्ने डिस्कहरू पहिले नै सर्भरमा स्थापित छन्। मूल विभाजनको लागि प्रयोग गरिएको फाइल प्रणाली ext4 हो।

केस 1: ठूला डिस्कहरूसँग साना डिस्कहरू प्रतिस्थापन गर्दै (2TB सम्म)

कार्य: हालको डिस्कहरू ठूला डिस्कहरू (2 TB सम्म) जानकारी स्थानान्तरणको साथ बदल्नुहोस्। यस अवस्थामा, हामीसँग 2 x 240 GB SSD (RAID-1) प्रणाली स्थापना भएको डिस्कहरू र 2 x 1 TB SATA डिस्कहरू छन् जसमा प्रणाली स्थानान्तरण गर्न आवश्यक छ।

हालको डिस्क लेआउट हेरौं।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sda2           8:2    0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
sdd              8:48   0 931,5G  0 disk  

हाल प्रयोग गरिएको फाइल प्रणाली स्पेस जाँच गरौं।

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                32G            0   32G            0% /dev
tmpfs                   32G            0   32G            0% /dev/shm
tmpfs                   32G         9,6M   32G            1% /run
tmpfs                   32G            0   32G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,3G  192G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  6,3G            0  6,3G            0% /run/user/0

डिस्क प्रतिस्थापन गर्नु अघि फाइल प्रणालीको आकार 204 GB हो, 2 md126 सफ्टवेयर arrays प्रयोग गरिन्छ, जुन मा माउन्ट गरिएको छ। /boot и md127को रूपमा प्रयोग गरिन्छ भौतिक मात्रा VG समूहको लागि vg0.

1. arrays बाट डिस्क विभाजनहरू हटाउँदै

एरेको अवस्था जाँच गर्दै

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda2[0] sdb2[1]
      233206784 blocks super 1.2 [2/2] [UU]
      bitmap: 0/2 pages [0KB], 65536KB chunk

unused devices: <none>

प्रणाली 2 arrays प्रयोग गर्दछ: md126 (माउन्ट बिन्दु /boot) - एक खण्ड मिलेर बनेको छ /dev/sda1 и /dev/sdb1, md127 (LVM का लागि स्वाप र फाइल प्रणालीको मूल) - समावेश छ /dev/sda2 и /dev/sdb2.

हामीले प्रत्येक एरेमा प्रयोग हुने पहिलो डिस्कको विभाजनहरूलाई खराबको रूपमा चिन्ह लगाउँछौं।

mdadm /dev/md126 --fail /dev/sda1

mdadm /dev/md127 --fail /dev/sda2

हामी arrays बाट /dev/sda ब्लक उपकरण विभाजनहरू हटाउँछौं।

mdadm /dev/md126 --remove /dev/sda1

mdadm /dev/md127 --remove /dev/sda2

हामीले एरेबाट डिस्क हटाइसकेपछि, ब्लक उपकरण जानकारी यस्तो देखिनेछ।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
sdd              8:48   0 931,5G  0 disk  

डिस्क हटाए पछि arrays को स्थिति।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdb1[1]
      1047552 blocks super 1.2 [2/1] [_U]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

2. नयाँ डिस्कमा विभाजन तालिका प्रतिलिपि गर्नुहोस्

तपाइँ निम्न आदेशको साथ डिस्कमा प्रयोग गरिएको विभाजन तालिका जाँच गर्न सक्नुहुन्छ।

fdisk -l /dev/sdb | grep 'Disk label type'

MBR को लागि आउटपुट हुनेछ:

Disk label type: dos

GPT को लागि:

Disk label type: gpt

MBR को लागि विभाजन तालिका प्रतिलिपि गर्दै:

sfdisk -d /dev/sdb | sfdisk /dev/sdc

यस टोलीमा первым डिस्क संकेत गरिएको छ с जसको मार्कअप प्रतिलिपि गरिएको छ, दोस्रो - कहाँ कापी।

ATTENTION: GPT को लागी первым डिस्क संकेत गरिएको छ जसमा प्रतिलिपि मार्कअप, दोस्रो डिस्कले डिस्कलाई संकेत गर्दछ कुन बाट मार्कअप प्रतिलिपि गर्नुहोस्। यदि तपाईंले डिस्कहरू मिलाउनुभयो भने, सुरुमा राम्रो विभाजन अधिलेखन र नष्ट हुनेछ।

GPT को लागि लेआउट तालिका प्रतिलिपि गर्दै:

sgdisk -R /dev/sdс /dev/sdb

अर्को, डिस्कमा अनियमित UUID असाइन गर्नुहोस् (GPT को लागि)।


sgdisk -G /dev/sdc

आदेश कार्यान्वयन भएपछि, विभाजनहरू डिस्कमा देखा पर्दछ /dev/sdc.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
└─sdc2           8:34   0 222,5G  0 part  
sdd              8:48   0 931,5G  0 disk  

यदि, कार्य सम्पन्न भएपछि, डिस्कमा प्रणालीमा विभाजनहरू /dev/sdc अनिश्चित, त्यसपछि हामी विभाजन तालिका पुन: पढ्न आदेश कार्यान्वयन गर्छौं।

sfdisk -R /dev/sdc

यदि हालको डिस्कहरूले MBR तालिका प्रयोग गर्दछ र जानकारी 2 TB भन्दा ठूला डिस्कहरूमा स्थानान्तरण गर्न आवश्यक छ भने, नयाँ डिस्कहरूमा तपाईंले बायोसबुट विभाजन प्रयोग गरेर म्यानुअल रूपमा GPT विभाजन सिर्जना गर्न आवश्यक पर्दछ। यो मामला यस लेखको भाग 2 मा छलफल गरिनेछ।

3. एरेमा नयाँ डिस्कको विभाजनहरू थप्दै

सम्बन्धित एरेहरूमा डिस्क विभाजनहरू थपौं।

mdadm /dev/md126 --add /dev/sdc1

mdadm /dev/md127 --add /dev/sdc2

हामी जाँच गर्छौं कि खण्डहरू थपिएका छन्।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  

यस पछि, हामी एरेहरू सिंक्रोनाइज हुनको लागि पर्खन्छौं।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc1[2] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc2[2] sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      [==>..................]  recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

तपाईं उपयोगिता प्रयोग गरेर सिंक्रोनाइजेसन प्रक्रिया लगातार निगरानी गर्न सक्नुहुन्छ watch.

watch -n 2 cat /proc/mdstat

परिमिति -n सेकेन्डमा कुन अन्तरालहरूमा कमाण्डलाई प्रगति जाँच गर्न कार्यान्वयन गरिनु पर्छ निर्दिष्ट गर्दछ।

अर्को प्रतिस्थापन डिस्कको लागि चरण 1 - 3 दोहोर्याउनुहोस्।

हामीले प्रत्येक एरेमा प्रयोग हुने दोस्रो डिस्कको विभाजनहरूलाई खराबको रूपमा चिन्ह लगाउँछौं।

mdadm /dev/md126 --fail /dev/sdb1

mdadm /dev/md127 --fail /dev/sdb2

ब्लक उपकरण विभाजनहरू हटाउँदै /dev/sdb arrays बाट।

mdadm /dev/md126 --remove /dev/sdb1

mdadm /dev/md127 --remove /dev/sdb2

हामीले एरेबाट डिस्क हटाइसकेपछि, ब्लक उपकरण जानकारी यस्तो देखिनेछ।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  

डिस्क हटाए पछि arrays को स्थिति।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc1[2]
      1047552 blocks super 1.2 [2/1] [U_]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc2[2]
      233206784 blocks super 1.2 [2/1] [U_]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

डिस्कबाट MBR विभाजन तालिका प्रतिलिपि गर्दै /dev/sdс डिस्कमा /dev/sdd.

sfdisk -d /dev/sdс | sfdisk /dev/sdd

आदेश कार्यान्वयन भएपछि, विभाजनहरू डिस्कमा देखा पर्दछ /dev/sdd.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
└─sdd2           8:50   0 222,5G  0 part  

एरेहरूमा डिस्क विभाजनहरू थप्दै।

mdadm /dev/md126 --add /dev/sdd1

mdadm /dev/md127 --add /dev/sdd2

हामी जाँच गर्छौं कि खण्डहरू थपिएका छन्।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

यस पछि, हामी एरेहरू सिंक्रोनाइज हुनको लागि पर्खन्छौं।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdd1[3] sdc1[2]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdd2[3] sdc2[2]
      233206784 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

5. नयाँ ड्राइभहरूमा GRUB स्थापना गर्दै

CentOS को लागि:

grub2-install /dev/sdX

Debian/Ubuntu को लागि:

grub-install /dev/sdX

जहाँ X - ब्लक उपकरणको पत्र। यस अवस्थामा, तपाईंले GRUB लाई स्थापना गर्न आवश्यक छ /dev/sdc и /dev/sdd.

6. मूल विभाजनको फाइल प्रणाली विस्तार (ext4)

नयाँ डिस्कहरूमा /dev/sdc и /dev/sdd 931.5 GB उपलब्ध छ। विभाजन तालिका साना डिस्कहरू, विभाजनहरूबाट प्रतिलिपि गरिएको तथ्यको कारणले गर्दा /dev/sdc2 и /dev/sdd2 222.5 GB उपलब्ध छ।

sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

यो आवश्यक छ:

  1. प्रत्येक डिस्कमा विभाजन 2 विस्तार गर्नुहोस्,
  2. विस्तार एरे md127,
  3. PV (भौतिक भोल्युम) विस्तार गर्नुहोस्,
  4. विस्तार गर्नुहोस् LV (तार्किक-भोल्युम) vg0-root,
  5. फाइल प्रणाली विस्तार गर्नुहोस्।

उपयोगिता प्रयोग गर्दै खण्डित खण्ड विस्तार गरौं /dev/sdc2 अधिकतम मूल्य सम्म। आदेश कार्यान्वयन गर्नुहोस् parted /dev/sdc (१) र आदेशको साथ हालको विभाजन तालिका हेर्नुहोस् p (2)।

लिनक्समा ठूला डिस्कहरूसँग साना डिस्कहरू प्रतिस्थापन गर्दै

तपाईले देख्न सक्नुहुन्छ, विभाजन 2 को अन्त्य 240 GB मा समाप्त हुन्छ। आदेशको साथ विभाजन विस्तार गरौं resizepart 2, जहाँ 2 खण्ड (3) को संख्या हो। हामी डिजिटल ढाँचामा मान संकेत गर्छौं, उदाहरणका लागि 1000 GB, वा डिस्क साझेदारीको संकेत प्रयोग गर्नुहोस् - 100%। हामी फेरि जाँच गर्छौं कि विभाजनमा नयाँ आकार (4) छ।

डिस्कको लागि माथिका चरणहरू दोहोर्याउनुहोस् /dev/sdd। विभाजन विस्तार पछि /dev/sdc2 и /dev/sdd2 930.5 GB बराबर भयो।

[root@localhost ~]# lsblk                                                 
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 930,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 930,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

यस पछि हामी एरे विस्तार गर्छौं md127 अधिकतम सम्म।

mdadm --grow /dev/md127 --size=max

हामी जाँच गर्छौं कि एरे विस्तार भएको छ। अब यसको साइज 930.4 GB भएको छ।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 930,5G  0 part  
  └─md127        9:127  0 930,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 930,5G  0 part  
  └─md127        9:127  0 930,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

विस्तार विस्तार गर्दै भौतिक मात्रा। विस्तार गर्नु अघि, PV को हालको अवस्था जाँच गरौं।

[root@localhost ~]# pvscan
  PV /dev/md127   VG vg0             lvm2 [222,40 GiB / 0    free]
  Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0   ]

देख्न सकिन्छ, PV /dev/md127 222.4 GB ठाउँ प्रयोग गर्दछ।

हामीले निम्न आदेशको साथ PV विस्तार गर्छौं।

pvresize /dev/md127

PV विस्तारको नतिजा जाँच गर्दै।

[

root@localhost ~]# pvscan
  PV /dev/md127   VG vg0             lvm2 [930,38 GiB / 707,98 GiB free]
  Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0   ]

विस्तार गर्दै तार्किक मात्रा। विस्तार गर्नु अघि, LV (1) को हालको अवस्था जाँच गरौं।

[root@localhost ~]# lvscan
  ACTIVE            '/dev/vg0/swap' [<16,00 GiB] inherit
  ACTIVE            '/dev/vg0/root' [<206,41 GiB] inherit

LV /dev/vg0/root 206.41 GB प्रयोग गर्दछ।

हामी निम्न आदेश (2) को साथ LV विस्तार गर्छौं।

lvextend -l +100%FREE /dev/mapper/vg0-root

हामी पूरा भएको कार्य जाँच गर्छौं (3)।

[root@localhost ~]# lvscan 
  ACTIVE            '/dev/vg0/swap' [<16,00 GiB] inherit
  ACTIVE            '/dev/vg0/root' [<914,39 GiB] inherit

तपाईले देख्न सक्नुहुन्छ, LV विस्तार गरेपछि, कब्जा गरिएको डिस्क स्पेसको मात्रा 914.39 GB भयो।

लिनक्समा ठूला डिस्कहरूसँग साना डिस्कहरू प्रतिस्थापन गर्दै

LV भोल्युम बढेको छ (4), तर फाइल प्रणालीले अझै 204 GB (5) ओगटेको छ।

1. फाइल प्रणाली विस्तार गरौं।

resize2fs /dev/mapper/vg0-root

आदेश कार्यान्वयन भएपछि, हामी फाइल प्रणालीको आकार जाँच गर्छौं।

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                32G            0   32G            0% /dev
tmpfs                   32G            0   32G            0% /dev/shm
tmpfs                   32G         9,5M   32G            1% /run
tmpfs                   32G            0   32G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   900G         1,3G  860G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  6,3G            0  6,3G            0% /run/user/0

रूट फाइल प्रणालीको आकार 900 GB मा बढ्नेछ। चरणहरू पूरा गरेपछि, तपाईं पुरानो डिस्कहरू हटाउन सक्नुहुन्छ।

केस २: साना डिस्कहरू ठूला डिस्कहरूसँग प्रतिस्थापन गर्दै (2TB भन्दा बढी)

व्यायाम: हालको डिस्कहरू ठूला डिस्कहरू (2 x 3TB) संग जानकारी सुरक्षित गर्दा बदल्नुहोस्। यस अवस्थामा, हामीसँग 2 x 240 GB SSD (RAID-1) प्रणाली स्थापना भएको डिस्कहरू र 2 x 3 TB SATA डिस्कहरू छन् जसमा प्रणाली स्थानान्तरण गर्न आवश्यक छ। हालको डिस्कहरूले MBR विभाजन तालिका प्रयोग गर्दछ। नयाँ डिस्कको क्षमता २ TB भन्दा बढी भएको हुनाले, MBR ले २ TB भन्दा ठूला डिस्कहरूसँग काम गर्न नसक्नेले GPT तालिका प्रयोग गर्नुपर्ने हुन्छ।

हालको डिस्क लेआउट हेरौं।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sda2           8:2    0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
sdd              8:48   0   2,7T  0 disk  

डिस्कमा प्रयोग गरिएको विभाजन तालिका जाँच गरौं /dev/sda.

[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos

डिस्कमा /dev/sdb समान विभाजन तालिका प्रयोग गरिन्छ। प्रणालीमा प्रयोग गरिएको डिस्क स्पेस जाँच गरौं।

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,5M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,3G  192G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

तपाईले देख्न सक्नुहुन्छ, फाइल प्रणालीको रूटले 204 GB लिन्छ। सफ्टवेयर RAID array को हालको अवस्था जाँच गरौं।

1. GPT विभाजन तालिका र डिस्क विभाजन स्थापना

सेक्टर द्वारा डिस्क लेआउट जाँच गरौं।

[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags: 

Номер  Начало  Конец   Размер  Тип      Файловая система  Флаги
 1     1049kB  1076MB  1075MB  primary                    загрузочный, raid
 2     1076MB  240GB   239GB   primary                    raid

नयाँ 3TB डिस्कमा हामीले 3 विभाजनहरू सिर्जना गर्न आवश्यक हुनेछ:

  1. सेक्सन bios_grub GPT BIOS अनुकूलताको लागि 2MiB आकार,
  2. RAID array को लागि विभाजन जुन मा माउन्ट गरिनेछ /boot.
  3. RAID array को लागि विभाजन जसमा त्यहाँ हुनेछ LV रूट и LV स्वैप.

उपयोगिता स्थापना गर्दै खण्डित टोली yum install -y parted (CentOS को लागि), apt install -y parted (डेबियन/उबुन्टुका लागि)।

प्रयोग गर्दै खण्डित डिस्क विभाजन गर्न निम्न आदेशहरू चलाउनुहोस्।

आदेश कार्यान्वयन गर्नुहोस् parted /dev/sdc र डिस्क लेआउट सम्पादन मोडमा जानुहोस्।

GPT विभाजन तालिका सिर्जना गर्नुहोस्।

(parted) mktable gpt

१ खण्ड सिर्जना गर्नुहोस् bios_grub खण्ड र यसको लागि झण्डा सेट गर्नुहोस्।

(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on  

विभाजन 2 सिर्जना गर्नुहोस् र यसको लागि झण्डा सेट गर्नुहोस्। विभाजन RAID array को लागि ब्लकको रूपमा प्रयोग गरिनेछ र माउन्ट गरिनेछ /boot.

(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on

हामी तेस्रो खण्ड सिर्जना गर्छौं, जसलाई एरे ब्लकको रूपमा पनि प्रयोग गरिनेछ जसमा LVM अवस्थित हुनेछ।

(parted) mkpart primary 1028MiB 100% 

यस अवस्थामा, यो झण्डा सेट गर्न आवश्यक छैन, तर आवश्यक भएमा, यो निम्न आदेश संग सेट गर्न सकिन्छ।

(parted) set 3 raid on

हामी सिर्जना गरिएको तालिका जाँच गर्छौं।

(parted) p                                                                
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags: 

Номер  Начало  Конец   Размер  Файловая система  Имя      Флаги
 1     1049kB  3146kB  2097kB                    primary  bios_grub
 2     3146kB  1077MB  1074MB                    primary  загрузочный
 3     1077MB  3001GB  3000GB                    primary

हामी डिस्कमा नयाँ अनियमित GUID असाइन गर्छौं।

sgdisk -G /dev/sdd

2. एरेहरूबाट पहिलो डिस्कको विभाजनहरू हटाउँदै

एरेको अवस्था जाँच गर्दै

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda2[0] sdb2[1]
      233206784 blocks super 1.2 [2/2] [UU]
      bitmap: 0/2 pages [0KB], 65536KB chunk

unused devices: <none>

प्रणालीले २ arrays प्रयोग गर्दछ: md2 (माउन्ट पोइन्ट/बूट) - समावेश हुन्छ /dev/sda1 и /dev/sdb1, md127 (LVM का लागि swap र फाइल प्रणालीको मूल) - समावेश छ /dev/sda2 и /dev/sdb2.

हामीले प्रत्येक एरेमा प्रयोग हुने पहिलो डिस्कको विभाजनहरूलाई खराबको रूपमा चिन्ह लगाउँछौं।

mdadm /dev/md126 --fail /dev/sda1

mdadm /dev/md127 --fail /dev/sda2

ब्लक उपकरण विभाजनहरू हटाउँदै /dev/sda arrays बाट।

mdadm /dev/md126 --remove /dev/sda1

mdadm /dev/md127 --remove /dev/sda2

डिस्क हटाएपछि एरेको अवस्था जाँच गर्दै।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdb1[1]
      1047552 blocks super 1.2 [2/1] [_U]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

3. एरेमा नयाँ डिस्कको विभाजनहरू थप्दै

अर्को चरण सिङ्क्रोनाइजेसनको लागि एरेहरूमा नयाँ डिस्कको विभाजनहरू थप्नु हो। डिस्क लेआउटको हालको अवस्था हेरौं।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
└─sdc3           8:35   0   2,7T  0 part  
sdd              8:48   0   2,7T  0 disk  

सेक्सन /dev/sdc1 यो छ bios_grub खण्ड र arrays को निर्माण मा संलग्न छैन। arrays मात्र प्रयोग हुनेछ /dev/sdc2 и /dev/sdc3। हामी यी खण्डहरूलाई सम्बन्धित एरेहरूमा थप्छौं।

mdadm /dev/md126 --add /dev/sdc2

mdadm /dev/md127 --add /dev/sdc3

त्यसपछि हामी एरे सिङ्क्रोनाइजको लागि पर्खन्छौं।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc2[2] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc3[2] sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      [>....................]  recovery =  0.2% (619904/233206784) finish=31.2min speed=123980K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>

एरेमा विभाजनहरू थपेपछि डिस्क विभाजन।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  

4. एरेहरूबाट दोस्रो डिस्कको विभाजनहरू हटाउँदै

हामीले प्रत्येक एरेमा प्रयोग हुने दोस्रो डिस्कको विभाजनहरूलाई खराबको रूपमा चिन्ह लगाउँछौं।

mdadm /dev/md126 --fail /dev/sdb1

mdadm /dev/md127 --fail /dev/sdb2

ब्लक उपकरण विभाजनहरू हटाउँदै /dev/sda arrays बाट।

mdadm /dev/md126 --remove /dev/sdb1

mdadm /dev/md127 --remove /dev/sdb2

5. GPT लेआउट तालिका प्रतिलिपि गर्नुहोस् र एरे सिङ्क्रोनाइज गर्नुहोस्

GPT मार्कअप तालिका प्रतिलिपि गर्न हामी उपयोगिता प्रयोग गर्नेछौं sgdisk, जुन डिस्क विभाजन र GPT तालिकासँग काम गर्न प्याकेजमा समावेश छ - gdisk.

सेटिङ gdisk CentOS को लागि:

yum install -y gdisk

सेटिङ gdisk Debian/Ubuntu को लागि:

apt install -y gdisk

ATTENTION: GPT को लागी первым डिस्क संकेत गरिएको छ जसमा मार्कअप प्रतिलिपि गर्नुहोस्, दोस्रो डिस्कले डिस्कलाई संकेत गर्दछ कुन बाट मार्कअप प्रतिलिपि गर्नुहोस्। यदि तपाईंले डिस्कहरू मिलाउनुभयो भने, सुरुमा राम्रो विभाजन अधिलेखन र नष्ट हुनेछ।

GPT मार्कअप तालिका प्रतिलिपि गर्नुहोस्।

sgdisk -R /dev/sdd /dev/sdc

डिस्कमा तालिका स्थानान्तरण पछि डिस्क विभाजन /dev/sdd.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
└─sdd3           8:51   0   2,7T  0 part  

अर्को, हामी सफ्टवेयर RAID एरेहरूमा भाग लिने प्रत्येक विभाजनहरू थप्छौं।

mdadm /dev/md126 --add /dev/sdd2

mdadm /dev/md127 --add /dev/sdd3

हामी एरे सिङ्क्रोनाइजको लागि पर्खिरहेका छौं।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdd2[3] sdc2[2]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md127 : active raid1 sdd3[3] sdc3[2]
      233206784 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.0% (148224/233206784) finish=26.2min speed=148224K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>

दोस्रो नयाँ डिस्कमा GPT विभाजन प्रतिलिपि गरेपछि, विभाजन यस्तो देखिन्छ।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

अर्को, नयाँ डिस्कहरूमा GRUB स्थापना गर्नुहोस्।

CentOS को लागि स्थापना:

grub2-install /dev/sdX

Debian/Ubuntu को लागि स्थापना:

grub-install /dev/sdX

जहाँ X - ड्राइभ पत्र, हाम्रो मामला ड्राइभ मा /dev/sdc и /dev/sdd.

हामी एरे बारे जानकारी अपडेट गर्छौं।

CentOS को लागि:

mdadm --detail --scan --verbose > /etc/mdadm.conf

Debian/Ubuntu को लागि:

echo "DEVICE partitions" > /etc/mdadm/mdadm.conf

mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf

छवि अद्यावधिक गर्दै initrd:
CentOS को लागि:

dracut -f -v --regenerate-all

Debian/Ubuntu को लागि:

update-initramfs -u -k all

हामी GRUB कन्फिगरेसन अपडेट गर्छौं।

CentOS को लागि:

grub2-mkconfig -o /boot/grub2/grub.cfg

Debian/Ubuntu को लागि:

update-grub

चरणहरू पूरा गरेपछि, पुरानो डिस्कहरू हटाउन सकिन्छ।

6. मूल विभाजनको फाइल प्रणाली विस्तार (ext4)

2 x 3TB डिस्क (RAID-1) मा प्रणाली स्थानान्तरण पछि फाइल प्रणाली विस्तार अघि डिस्क विभाजन।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
sdb              8:16   0 223,6G  0 disk  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md126        9:126  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md126        9:126  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

अब खण्डहरू /dev/sdc3 и /dev/sdd3 2.7 TB ओगटेको। हामीले GPT तालिकाको साथ नयाँ डिस्क लेआउट सिर्जना गरेकाले, विभाजन 3 को आकार तुरुन्तै अधिकतम सम्भावित डिस्क स्थानमा सेट गरिएको थियो; यस अवस्थामा, विभाजन विस्तार गर्न आवश्यक छैन।

यो आवश्यक छ:

  1. विस्तार एरे md126,
  2. PV (भौतिक भोल्युम) विस्तार गर्नुहोस्,
  3. विस्तार गर्नुहोस् LV (तार्किक-भोल्युम) vg0-root,
  4. फाइल प्रणाली विस्तार गर्नुहोस्।

1. एरे विस्तार गर्नुहोस् md126 अधिकतम सम्म।

mdadm --grow /dev/md126 --size=max

एरे विस्तार पछि md126 ओगटेको ठाउँको आकार बढेर २.७ TB पुगेको छ।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
sdb              8:16   0 223,6G  0 disk  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md126        9:126  0   2,7T  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md126        9:126  0   2,7T  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

विस्तार गर्दै भौतिक मात्रा.

विस्तार गर्नु अघि, कब्जा गरिएको ठाउँ PV / को हालको मान जाँच गर्नुहोस्।dev/md126.

[root@localhost ~]# pvs
  PV         VG  Fmt  Attr PSize   PFree
  /dev/md126 vg0 lvm2 a--  222,40g    0 

हामीले निम्न आदेशको साथ PV विस्तार गर्छौं।

pvresize /dev/md126

हामी सम्पन्न कार्य जाँच गर्छौं।

[root@localhost ~]# pvs
  PV         VG  Fmt  Attr PSize  PFree
  /dev/md126 vg0 lvm2 a--  <2,73t 2,51t

विस्तार गर्दै तार्किक भोल्युम vg0-root.

PV विस्तार गरेपछि, कब्जा गरिएको ठाउँ VG जाँच गरौं।

[root@localhost ~]# vgs
  VG  #PV #LV #SN Attr   VSize  VFree
  vg0   1   2   0 wz--n- <2,73t 2,51t

LV द्वारा ओगटेको ठाउँ जाँच गरौं।

[root@localhost ~]# lvs
  LV   VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root vg0 -wi-ao---- <206,41g                                                    
  swap vg0 -wi-ao----  <16,00g            

vg0-रूट भोल्युमले 206.41 GB ओगटेको छ।

हामी LV लाई अधिकतम डिस्क स्थानमा विस्तार गर्छौं।

lvextend -l +100%FREE /dev/mapper/vg0-root 

विस्तार पछि LV ठाउँ जाँच गर्दै।

[root@localhost ~]# lvs
  LV   VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root vg0 -wi-ao----   2,71t                                                    
  swap vg0 -wi-ao---- <16,00g

फाइल प्रणाली विस्तार गर्दै (ext4)।

फाइल प्रणालीको हालको साइज जाँच गरौं।

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,6M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,4G  192G            1% /
/dev/md127            1007M         141M  816M           15% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

भोल्युम /dev/mapper/vg0-root ले LV विस्तार पछि 204 GB ओगटेको छ।

फाइल प्रणाली विस्तार गर्दै।

resize2fs /dev/mapper/vg0-root 

यसलाई विस्तार गरेपछि फाइल प्रणालीको आकार जाँच गर्दै।

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,6M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   2,7T         1,4G  2,6T            1% /
/dev/md127            1007M         141M  816M           15% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

सम्पूर्ण भोल्युम कभर गर्न फाइल प्रणाली आकार बढाइएको छ।

स्रोत: www.habr.com

एक टिप्पणी थप्न