Linux-ում փոքր սկավառակների փոխարինում ավելի մեծ սկավառակներով

Բարեւ բոլորին. Նոր դասընթացի խմբի մեկնարկի նախօրեին «Linux Administrator» Մենք հրապարակում ենք օգտակար նյութեր՝ գրված մեր ուսանողի, ինչպես նաև դասընթացի մենթորի, REG.RU կորպորատիվ արտադրանքի տեխնիկական աջակցության մասնագետ Ռոման Թրավինի կողմից:

Այս հոդվածում կքննարկվեն սկավառակների փոխարինման և ավելի մեծ հզորության նոր սկավառակների վրա տեղեկատվություն փոխանցելու 2 դեպք՝ զանգվածի և ֆայլային համակարգի հետագա ընդլայնմամբ: Առաջին դեպքը վերաբերելու է սկավառակների փոխարինմանը միևնույն MBR/MBR կամ GPT/GPT միջնորմով, երկրորդը վերաբերում է սկավառակների փոխարինմանը MBR միջնորմով 2 ՏԲ-ից ավելի հզորությամբ սկավառակներով, որոնց վրա պետք է տեղադրել. GPT միջնորմ՝ biosboot միջնորմով: Երկու դեպքում էլ սկավառակները, որոնց մենք փոխանցում ենք տվյալները, արդեն տեղադրված են սերվերի վրա։ Արմատային բաժանման համար օգտագործվող ֆայլային համակարգը ext4 է:

Դեպք 1. Փոքր սկավառակների փոխարինում ավելի մեծ սկավառակներով (մինչև 2 ՏԲ)

Առաջադրանք. Փոխարինեք ընթացիկ սկավառակները ավելի մեծ սկավառակներով (մինչև 2 ՏԲ) տեղեկատվության փոխանցման միջոցով: Այս դեպքում մենք ունենք 2 x 240 ԳԲ SSD (RAID-1) սկավառակ՝ տեղադրված համակարգով և 2 x 1 ՏԲ SATA սկավառակներ, որոնց պետք է փոխանցվի համակարգը:

Եկեք նայենք ընթացիկ սկավառակի դասավորությանը:

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sda2           8:2    0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
sdd              8:48   0 931,5G  0 disk  

Եկեք ստուգենք ներկայումս օգտագործվող ֆայլային համակարգի տարածքը:

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                32G            0   32G            0% /dev
tmpfs                   32G            0   32G            0% /dev/shm
tmpfs                   32G         9,6M   32G            1% /run
tmpfs                   32G            0   32G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,3G  192G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  6,3G            0  6,3G            0% /run/user/0

Սկավառակները փոխարինելուց առաջ ֆայլային համակարգի չափը 204 ԳԲ է, օգտագործվում է 2 md126 ծրագրային զանգված, որը տեղադրված է. /boot и md127, որն օգտագործվում է որպես ֆիզիկական ծավալը VG խմբի համար vg0.

1. Սկավառակի միջնորմների հեռացում զանգվածներից

Զանգվածի վիճակի ստուգում

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda2[0] sdb2[1]
      233206784 blocks super 1.2 [2/2] [UU]
      bitmap: 0/2 pages [0KB], 65536KB chunk

unused devices: <none>

Համակարգն օգտագործում է 2 զանգված. md126 (տեղադրման կետ /boot) - բաղկացած է հատվածից /dev/sda1 и /dev/sdb1, md127 (LVM-ի համար փոխանակման և ֆայլային համակարգի արմատը) - բաղկացած է /dev/sda2 и /dev/sdb2.

Մենք նշում ենք առաջին սկավառակի բաժանումները, որոնք օգտագործվում են յուրաքանչյուր զանգվածում որպես վատ:

mdadm /dev/md126 --fail /dev/sda1

mdadm /dev/md127 --fail /dev/sda2

Մենք զանգվածներից հեռացնում ենք /dev/sda բլոկ սարքի միջնորմները։

mdadm /dev/md126 --remove /dev/sda1

mdadm /dev/md127 --remove /dev/sda2

Այն բանից հետո, երբ մենք հեռացրինք սկավառակը զանգվածից, արգելափակման սարքի տեղեկատվությունը կունենա այսպիսի տեսք.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
sdd              8:48   0 931,5G  0 disk  

Զանգվածների վիճակը սկավառակները հեռացնելուց հետո:

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdb1[1]
      1047552 blocks super 1.2 [2/1] [_U]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

2. Պատճենեք բաժանման աղյուսակը նոր սկավառակի վրա

Դուք կարող եք ստուգել օգտագործված բաժանման աղյուսակը սկավառակի վրա հետևյալ հրամանով.

fdisk -l /dev/sdb | grep 'Disk label type'

MBR-ի ելքը կլինի.

Disk label type: dos

GPT-ի համար.

Disk label type: gpt

MBR-ի բաժանման աղյուսակի պատճենում.

sfdisk -d /dev/sdb | sfdisk /dev/sdc

Այս թիմում առաջինը սկավառակը նշված է с որոնցից նշումը պատճենված է, երկրորդ - որտեղ պատճենել.

ՈՒՇԱԴՐՈՒԹՅՈՒՆGPT-ի համար առաջինը սկավառակը նշված է որի վրա պատճենահանման նշում, երկրորդը սկավառակը ցույց է տալիս սկավառակը որից պատճենահանման նշում. Եթե ​​դուք խառնեք սկավառակները, ապա սկզբնական լավ բաժանումը կվերագրվի և կկործանվի:

GPT-ի դասավորության աղյուսակի պատճենում.

sgdisk -R /dev/sdс /dev/sdb

Հաջորդը, սկավառակին նշանակեք պատահական UUID (GPT-ի համար):


sgdisk -G /dev/sdc

Հրամանի կատարումից հետո բաժինները պետք է հայտնվեն սկավառակի վրա /dev/sdc.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
└─sdc2           8:34   0 222,5G  0 part  
sdd              8:48   0 931,5G  0 disk  

Եթե ​​գործողությունը կատարելուց հետո համակարգում գտնվող բաժանումները սկավառակի վրա /dev/sdc չորոշված, ապա մենք կատարում ենք բաժանման աղյուսակը վերընթերցելու հրամանը:

sfdisk -R /dev/sdc

Եթե ​​ընթացիկ սկավառակներն օգտագործում են MBR աղյուսակը, և տեղեկատվությունը պետք է փոխանցվի 2 ՏԲ-ից մեծ սկավառակների վրա, ապա նոր սկավառակների վրա դուք պետք է ձեռքով ստեղծեք GPT միջնորմ՝ օգտագործելով biosboot միջնորմը: Այս դեպքը կքննարկվի սույն հոդվածի 2-րդ մասում:

3. Նոր սկավառակի միջնապատերի ավելացում զանգվածին

Համապատասխան զանգվածներին ավելացնենք սկավառակի միջնորմներ։

mdadm /dev/md126 --add /dev/sdc1

mdadm /dev/md127 --add /dev/sdc2

Մենք ստուգում ենք, որ բաժինները ավելացվել են:

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  

Դրանից հետո մենք սպասում ենք զանգվածների համաժամացմանը:

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc1[2] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc2[2] sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      [==>..................]  recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

Դուք կարող եք շարունակաբար վերահսկել համաժամացման գործընթացը, օգտագործելով կոմունալը watch.

watch -n 2 cat /proc/mdstat

Parameter -n նշում է, թե վայրկյանների ինչ ընդմիջումներով պետք է կատարվի հրամանը՝ առաջընթացը ստուգելու համար:

Կրկնեք 1-3 քայլերը հաջորդ փոխարինող սկավառակի համար:

Մենք նշում ենք երկրորդ սկավառակի բաժանմունքները, որոնք օգտագործվում են յուրաքանչյուր զանգվածում որպես վատ:

mdadm /dev/md126 --fail /dev/sdb1

mdadm /dev/md127 --fail /dev/sdb2

Սարքի արգելափակման միջնորմների հեռացում /dev/sdb զանգվածներից։

mdadm /dev/md126 --remove /dev/sdb1

mdadm /dev/md127 --remove /dev/sdb2

Այն բանից հետո, երբ մենք հեռացրինք սկավառակը զանգվածից, արգելափակման սարքի տեղեկատվությունը կունենա այսպիսի տեսք.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  

Զանգվածների վիճակը սկավառակները հեռացնելուց հետո:

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc1[2]
      1047552 blocks super 1.2 [2/1] [U_]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc2[2]
      233206784 blocks super 1.2 [2/1] [U_]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

MBR բաժանման աղյուսակի պատճենումը սկավառակից /dev/sdс սկավառակի վրա /dev/sdd.

sfdisk -d /dev/sdс | sfdisk /dev/sdd

Հրամանի կատարումից հետո բաժինները պետք է հայտնվեն սկավառակի վրա /dev/sdd.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
└─sdd2           8:50   0 222,5G  0 part  

Սկավառակի միջնորմների ավելացում զանգվածներին:

mdadm /dev/md126 --add /dev/sdd1

mdadm /dev/md127 --add /dev/sdd2

Մենք ստուգում ենք, որ բաժինները ավելացվել են:

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

Դրանից հետո մենք սպասում ենք զանգվածների համաժամացմանը:

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdd1[3] sdc1[2]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdd2[3] sdc2[2]
      233206784 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

5. GRUB-ի տեղադրում նոր սկավառակների վրա

CentOS-ի համար.

grub2-install /dev/sdX

Debian/Ubuntu:

grub-install /dev/sdX

որտեղ X - բլոկ սարքի տառը: Այս դեպքում դուք պետք է տեղադրեք GRUB-ը /dev/sdc и /dev/sdd.

6. Արմատային բաժանման ֆայլային համակարգի ընդլայնում (ext4):

Նոր սկավառակների վրա /dev/sdc и /dev/sdd Առկա է 931.5 ԳԲ: Շնորհիվ այն բանի, որ բաժանման աղյուսակը պատճենվել է ավելի փոքր սկավառակներից, միջնորմներից /dev/sdc2 и /dev/sdd2 Հասանելի է 222.5 ԳԲ:

sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

Անհրաժեշտ է,

  1. Ընդլայնել բաժին 2-ը յուրաքանչյուր սկավառակի վրա,
  2. Ընդլայնել զանգվածը md127,
  3. Ընդլայնել PV (ֆիզիկական ծավալը),
  4. Ընդլայնել LV (տրամաբանական ծավալ) vg0-root,
  5. Ընդլայնել ֆայլային համակարգը:

Օգտագործելով կոմունալ բաժանվեց ընդլայնենք բաժինը /dev/sdc2 առավելագույն արժեքին: Կատարեք հրամանը parted /dev/sdc (1) և դիտեք ընթացիկ բաժանման աղյուսակը հրամանով p (2).

Linux-ում փոքր սկավառակների փոխարինում ավելի մեծ սկավառակներով

Ինչպես տեսնում եք, բաժանման 2-ի վերջն ավարտվում է 240 ԳԲ-ով: Եկեք ընդլայնենք բաժինը հրամանով resizepart 2, որտեղ 2-ը (3) բաժնի թիվն է։ Մենք նշում ենք արժեքը թվային ձևաչափով, օրինակ՝ 1000 ԳԲ, կամ օգտագործում ենք սկավառակի մասնաբաժնի նշումը՝ 100%։ Կրկին ստուգում ենք, որ միջնորմն ունի նոր չափ (4):

Կրկնեք վերը նշված քայլերը սկավառակի համար /dev/sdd. Միջնապատերի ընդլայնումից հետո /dev/sdc2 и /dev/sdd2 դարձավ 930.5 ԳԲ-ի:

[root@localhost ~]# lsblk                                                 
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 930,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 930,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

Դրանից հետո մենք ընդլայնում ենք զանգվածը md127 առավելագույնը:

mdadm --grow /dev/md127 --size=max

Մենք ստուգում ենք, որ զանգվածը ընդլայնվել է: Այժմ դրա չափը դարձել է 930.4 ԳԲ։

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 930,5G  0 part  
  └─md127        9:127  0 930,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 930,5G  0 part  
  └─md127        9:127  0 930,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

Ընդլայնումը ֆիզիկական ծավալը. Նախքան ընդլայնելը, եկեք ստուգենք ՖՎ-ի ներկայիս վիճակը:

[root@localhost ~]# pvscan
  PV /dev/md127   VG vg0             lvm2 [222,40 GiB / 0    free]
  Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0   ]

Ինչպես երեւում է, ՊՎ /dev/md127 օգտագործում է 222.4 ԳԲ տարածք:

Մենք ընդլայնում ենք PV-ն հետևյալ հրամանով.

pvresize /dev/md127

ՖՎ ընդլայնման արդյունքի ստուգում:

[

root@localhost ~]# pvscan
  PV /dev/md127   VG vg0             lvm2 [930,38 GiB / 707,98 GiB free]
  Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0   ]

Ընդլայնվող տրամաբանական ծավալը. Նախքան ընդլայնվելը, եկեք ստուգենք LV-ի ներկայիս վիճակը (1):

[root@localhost ~]# lvscan
  ACTIVE            '/dev/vg0/swap' [<16,00 GiB] inherit
  ACTIVE            '/dev/vg0/root' [<206,41 GiB] inherit

LV /dev/vg0/root օգտագործում է 206.41 ԳԲ:

Մենք ընդլայնում ենք LV-ն հետևյալ հրամանով (2).

lvextend -l +100%FREE /dev/mapper/vg0-root

Մենք ստուգում ենք կատարված գործողությունը (3):

[root@localhost ~]# lvscan 
  ACTIVE            '/dev/vg0/swap' [<16,00 GiB] inherit
  ACTIVE            '/dev/vg0/root' [<914,39 GiB] inherit

Ինչպես տեսնում եք, LV-ն ընդլայնելուց հետո սկավառակի զբաղեցրած տարածքի քանակը դարձավ 914.39 ԳԲ:

Linux-ում փոքր սկավառակների փոխարինում ավելի մեծ սկավառակներով

LV ծավալն ավելացել է (4), բայց ֆայլային համակարգը դեռ զբաղեցնում է 204 ԳԲ (5):

1. Եկեք ընդլայնենք ֆայլային համակարգը:

resize2fs /dev/mapper/vg0-root

Հրամանի կատարումից հետո մենք ստուգում ենք ֆայլային համակարգի չափը։

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                32G            0   32G            0% /dev
tmpfs                   32G            0   32G            0% /dev/shm
tmpfs                   32G         9,5M   32G            1% /run
tmpfs                   32G            0   32G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   900G         1,3G  860G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  6,3G            0  6,3G            0% /run/user/0

Արմատային ֆայլային համակարգի չափը կավելանա մինչև 900 ԳԲ: Քայլերը կատարելուց հետո կարող եք հեռացնել հին սկավառակները:

Դեպք 2. Փոքր սկավառակների փոխարինում ավելի մեծ սկավառակներով (ավելի քան 2 ՏԲ)

Հանձնարարություն Փոխարինեք ընթացիկ սկավառակները ավելի մեծ սկավառակներով (2 x 3TB)՝ պահպանելով տեղեկատվությունը: Այս դեպքում մենք ունենք 2 x 240 ԳԲ SSD (RAID-1) սկավառակ՝ տեղադրված համակարգով և 2 x 3 ՏԲ SATA սկավառակներ, որոնց պետք է փոխանցվի համակարգը: Ընթացիկ սկավառակներն օգտագործում են MBR բաժանման աղյուսակը: Քանի որ նոր սկավառակներն ունեն 2 ՏԲ-ից ավելի հզորություն, նրանք պետք է օգտագործեն GPT աղյուսակ, քանի որ MBR-ը չի կարող աշխատել 2 ՏԲ-ից մեծ սկավառակների հետ:

Եկեք նայենք ընթացիկ սկավառակի դասավորությանը:

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sda2           8:2    0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
sdd              8:48   0   2,7T  0 disk  

Եկեք ստուգենք սկավառակի վրա օգտագործվող բաժանման աղյուսակը /dev/sda.

[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos

Սկավառակի վրա /dev/sdb օգտագործվում է նմանատիպ բաժանման աղյուսակ: Եկեք ստուգենք օգտագործված սկավառակի տարածությունը համակարգում:

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,5M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,3G  192G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

Ինչպես տեսնում եք, ֆայլային համակարգի արմատը զբաղեցնում է 204 ԳԲ: Եկեք ստուգենք ծրագրային ապահովման RAID զանգվածի ներկա վիճակը:

1. GPT բաժանման աղյուսակի և սկավառակի բաժանման տեղադրում

Եկեք ստուգենք սկավառակի դասավորությունը ըստ հատվածի:

[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags: 

Номер  Начало  Конец   Размер  Тип      Файловая система  Флаги
 1     1049kB  1076MB  1075MB  primary                    загрузочный, raid
 2     1076MB  240GB   239GB   primary                    raid

Նոր 3TB սկավառակի վրա մեզ անհրաժեշտ կլինի ստեղծել 3 բաժին.

  1. Բաժին bios_grub 2 MiB չափ GPT BIOS-ի համատեղելիության համար,
  2. RAID զանգվածի բաժանումը, որը տեղադրվելու է /boot.
  3. RAID զանգվածի բաժանումը, որի վրա կլինի LV արմատ и LV փոխանակում.

Կոմունալ ծրագրի տեղադրում բաժանվեց թիմը yum install -y parted (CentOS-ի համար), apt install -y parted (Debian/Ubuntu-ի համար):

Օգտագործելով բաժանվեց Եկեք գործարկենք հետևյալ հրամանները՝ սկավառակը բաժանելու համար.

Կատարեք հրամանը parted /dev/sdc և անցեք սկավառակի դասավորության խմբագրման ռեժիմ:

Ստեղծեք GPT բաժանման աղյուսակ:

(parted) mktable gpt

Ստեղծեք 1 բաժին bios_grub բաժինը և դրոշակ դրել դրա համար:

(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on  

Ստեղծեք բաժին 2 և դրոշակ դրեք դրա համար: Բաժանմունքը կօգտագործվի որպես RAID զանգվածի բլոկ և կտեղադրվի այնտեղ /boot.

(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on

Մենք ստեղծում ենք 3-րդ բաժին, որը կօգտագործվի նաև որպես զանգվածի բլոկ, որի մեջ կտեղակայվի LVM-ը։

(parted) mkpart primary 1028MiB 100% 

Այս դեպքում դրոշը դնել պարտադիր չէ, բայց անհրաժեշտության դեպքում այն ​​կարելի է դնել հետևյալ հրամանով.

(parted) set 3 raid on

Ստուգում ենք ստեղծված աղյուսակը։

(parted) p                                                                
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags: 

Номер  Начало  Конец   Размер  Файловая система  Имя      Флаги
 1     1049kB  3146kB  2097kB                    primary  bios_grub
 2     3146kB  1077MB  1074MB                    primary  загрузочный
 3     1077MB  3001GB  3000GB                    primary

Մենք նոր պատահական GUID ենք վերագրում սկավառակին:

sgdisk -G /dev/sdd

2. Առաջին սկավառակի միջնապատերի հեռացում զանգվածներից

Զանգվածի վիճակի ստուգում

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda2[0] sdb2[1]
      233206784 blocks super 1.2 [2/2] [UU]
      bitmap: 0/2 pages [0KB], 65536KB chunk

unused devices: <none>

Համակարգն օգտագործում է 2 զանգված՝ md126 (mount point /boot) - բաղկացած է /dev/sda1 и /dev/sdb1, md127 (LVM-ի համար swap և ֆայլային համակարգի արմատը) - բաղկացած է /dev/sda2 и /dev/sdb2.

Մենք նշում ենք առաջին սկավառակի բաժանումները, որոնք օգտագործվում են յուրաքանչյուր զանգվածում որպես վատ:

mdadm /dev/md126 --fail /dev/sda1

mdadm /dev/md127 --fail /dev/sda2

Սարքի արգելափակման միջնորմների հեռացում /dev/sda զանգվածներից։

mdadm /dev/md126 --remove /dev/sda1

mdadm /dev/md127 --remove /dev/sda2

Սկավառակը հեռացնելուց հետո զանգվածի վիճակի ստուգում:

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdb1[1]
      1047552 blocks super 1.2 [2/1] [_U]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

3. Նոր սկավառակի միջնապատերի ավելացում զանգվածին

Հաջորդ քայլը նոր սկավառակի միջնապատերի ավելացումն է զանգվածներին համաժամացման համար: Եկեք նայենք սկավառակի դասավորության ներկա վիճակին:

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
└─sdc3           8:35   0   2,7T  0 part  
sdd              8:48   0   2,7T  0 disk  

Բաժին /dev/sdc1 է bios_grub բաժինը և ներգրավված չէ զանգվածների ստեղծման մեջ: Զանգվածները կօգտագործվեն միայն /dev/sdc2 и /dev/sdc3. Մենք ավելացնում ենք այս հատվածները համապատասխան զանգվածներին։

mdadm /dev/md126 --add /dev/sdc2

mdadm /dev/md127 --add /dev/sdc3

Այնուհետև մենք սպասում ենք զանգվածի համաժամացմանը:

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc2[2] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc3[2] sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      [>....................]  recovery =  0.2% (619904/233206784) finish=31.2min speed=123980K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>

Սկավառակի բաժանում զանգվածին միջնորմներ ավելացնելուց հետո:

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  

4. Երկրորդ սկավառակի միջնապատերի հեռացում զանգվածներից

Մենք նշում ենք երկրորդ սկավառակի բաժանմունքները, որոնք օգտագործվում են յուրաքանչյուր զանգվածում որպես վատ:

mdadm /dev/md126 --fail /dev/sdb1

mdadm /dev/md127 --fail /dev/sdb2

Սարքի արգելափակման միջնորմների հեռացում /dev/sda զանգվածներից։

mdadm /dev/md126 --remove /dev/sdb1

mdadm /dev/md127 --remove /dev/sdb2

5. Պատճենեք GPT դասավորության աղյուսակը և համաժամացրեք զանգվածը

GPT նշագրման աղյուսակը պատճենելու համար մենք կօգտագործենք կոմունալ ծրագիրը sgdisk, որը ներառված է սկավառակի միջնորմների և GPT աղյուսակի հետ աշխատելու փաթեթում. gdisk.

Տեղակայում gdisk CentOS-ի համար.

yum install -y gdisk

Տեղակայում gdisk Debian/Ubuntu-ի համար.

apt install -y gdisk

ՈՒՇԱԴՐՈՒԹՅՈՒՆGPT-ի համար առաջինը սկավառակը նշված է որի վրա պատճենեք նշումը, երկրորդը սկավառակը ցույց է տալիս սկավառակը որից պատճենեք նշումը: Եթե ​​դուք խառնեք սկավառակները, ապա սկզբնական լավ բաժանումը կվերագրվի և կկործանվի:

Պատճենեք GPT նշագրման աղյուսակը:

sgdisk -R /dev/sdd /dev/sdc

Սկավառակի բաժանում աղյուսակը սկավառակի վրա տեղափոխելուց հետո /dev/sdd.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
└─sdd3           8:51   0   2,7T  0 part  

Հաջորդը, մենք ավելացնում ենք ծրագրային RAID զանգվածներին մասնակցող բաժանմունքներից յուրաքանչյուրը:

mdadm /dev/md126 --add /dev/sdd2

mdadm /dev/md127 --add /dev/sdd3

Մենք սպասում ենք զանգվածի համաժամացմանը:

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdd2[3] sdc2[2]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md127 : active raid1 sdd3[3] sdc3[2]
      233206784 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.0% (148224/233206784) finish=26.2min speed=148224K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>

GPT միջնորմը երկրորդ նոր սկավառակի վրա պատճենելուց հետո բաժանումը կունենա այսպիսի տեսք.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

Հաջորդը, տեղադրեք GRUB-ը նոր սկավառակների վրա:

Տեղադրում CentOS-ի համար.

grub2-install /dev/sdX

Տեղադրում Debian/Ubuntu-ի համար.

grub-install /dev/sdX

որտեղ X — դրայվ տառ, մեր դեպքում դրայվներ /dev/sdc и /dev/sdd.

Մենք թարմացնում ենք զանգվածի մասին տեղեկատվությունը:

CentOS-ի համար.

mdadm --detail --scan --verbose > /etc/mdadm.conf

Debian/Ubuntu:

echo "DEVICE partitions" > /etc/mdadm/mdadm.conf

mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf

Պատկերի թարմացում initrd:
CentOS-ի համար.

dracut -f -v --regenerate-all

Debian/Ubuntu:

update-initramfs -u -k all

Մենք թարմացնում ենք GRUB-ի կոնֆիգուրացիան:

CentOS-ի համար.

grub2-mkconfig -o /boot/grub2/grub.cfg

Debian/Ubuntu:

update-grub

Քայլերը կատարելուց հետո հին սկավառակները կարող են հեռացվել:

6. Արմատային բաժանման ֆայլային համակարգի ընդլայնում (ext4):

Սկավառակի բաժանում նախքան ֆայլային համակարգի ընդլայնումը, համակարգը տեղափոխելուց հետո 2 x 3TB սկավառակներ (RAID-1):

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
sdb              8:16   0 223,6G  0 disk  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md126        9:126  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md126        9:126  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

Այժմ բաժիններ /dev/sdc3 и /dev/sdd3 զբաղեցնում է 2.7 ՏԲ: Քանի որ մենք ստեղծեցինք սկավառակի նոր դասավորություն GPT աղյուսակով, բաժանման 3-ի չափը անմիջապես դրվեց սկավառակի հնարավոր առավելագույն տարածության վրա, այս դեպքում բաժանումը ընդլայնելու կարիք չկա:

Անհրաժեշտ է,

  1. Ընդլայնել զանգվածը md126,
  2. Ընդլայնել PV (ֆիզիկական ծավալը),
  3. Ընդլայնել LV (տրամաբանական ծավալ) vg0-root,
  4. Ընդլայնել ֆայլային համակարգը:

1. Ընդարձակեք զանգվածը md126 առավելագույնը:

mdadm --grow /dev/md126 --size=max

Զանգվածի ընդլայնումից հետո md126 զբաղեցրած տարածքի չափը հասել է 2.7 ՏԲ-ի։

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
sdb              8:16   0 223,6G  0 disk  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md126        9:126  0   2,7T  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md126        9:126  0   2,7T  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

Ընդլայնվող ֆիզիկական ծավալը.

Ընդլայնելուց առաջ ստուգեք զբաղեցրած տարածքի ՖՎ-ի ընթացիկ արժեքը /dev/md126.

[root@localhost ~]# pvs
  PV         VG  Fmt  Attr PSize   PFree
  /dev/md126 vg0 lvm2 a--  222,40g    0 

Մենք ընդլայնում ենք PV-ն հետևյալ հրամանով.

pvresize /dev/md126

Մենք ստուգում ենք կատարված գործողությունը:

[root@localhost ~]# pvs
  PV         VG  Fmt  Attr PSize  PFree
  /dev/md126 vg0 lvm2 a--  <2,73t 2,51t

Ընդլայնվող տրամաբանական ծավալը vg0-root.

ՖՎ-ն ընդլայնելուց հետո ստուգենք VG-ի զբաղեցրած տարածքը։

[root@localhost ~]# vgs
  VG  #PV #LV #SN Attr   VSize  VFree
  vg0   1   2   0 wz--n- <2,73t 2,51t

Եկեք ստուգենք LV-ի զբաղեցրած տարածքը։

[root@localhost ~]# lvs
  LV   VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root vg0 -wi-ao---- <206,41g                                                    
  swap vg0 -wi-ao----  <16,00g            

vg0-root ծավալը զբաղեցնում է 206.41 ԳԲ:

Մենք ընդլայնում ենք LV-ն առավելագույն սկավառակի տարածությանը:

lvextend -l +100%FREE /dev/mapper/vg0-root 

Ընդլայնումից հետո LV տարածքի ստուգում:

[root@localhost ~]# lvs
  LV   VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root vg0 -wi-ao----   2,71t                                                    
  swap vg0 -wi-ao---- <16,00g

Ֆայլային համակարգի ընդլայնում (ext4):

Եկեք ստուգենք ֆայլային համակարգի ներկայիս չափը:

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,6M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,4G  192G            1% /
/dev/md127            1007M         141M  816M           15% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

Ծավալը /dev/mapper/vg0-root-ը զբաղեցնում է 204 ԳԲ LV-ի ընդլայնումից հետո:

Ֆայլային համակարգի ընդլայնում:

resize2fs /dev/mapper/vg0-root 

Ստուգելով ֆայլային համակարգի չափը այն ընդլայնելուց հետո:

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,6M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   2,7T         1,4G  2,6T            1% /
/dev/md127            1007M         141M  816M           15% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

Ֆայլային համակարգի չափը մեծացվել է՝ ամբողջ ծավալը ծածկելու համար:

Source: www.habr.com

Добавить комментарий