Բարեւ բոլորին. Նոր դասընթացի խմբի մեկնարկի նախօրեին
Այս հոդվածում կքննարկվեն սկավառակների փոխարինման և ավելի մեծ հզորության նոր սկավառակների վրա տեղեկատվություն փոխանցելու 2 դեպք՝ զանգվածի և ֆայլային համակարգի հետագա ընդլայնմամբ: Առաջին դեպքը վերաբերելու է սկավառակների փոխարինմանը միևնույն MBR/MBR կամ GPT/GPT միջնորմով, երկրորդը վերաբերում է սկավառակների փոխարինմանը MBR միջնորմով 2 ՏԲ-ից ավելի հզորությամբ սկավառակներով, որոնց վրա պետք է տեղադրել. GPT միջնորմ՝ biosboot միջնորմով: Երկու դեպքում էլ սկավառակները, որոնց մենք փոխանցում ենք տվյալները, արդեն տեղադրված են սերվերի վրա։ Արմատային բաժանման համար օգտագործվող ֆայլային համակարգը ext4 է:
Դեպք 1. Փոքր սկավառակների փոխարինում ավելի մեծ սկավառակներով (մինչև 2 ՏԲ)
Առաջադրանք. Փոխարինեք ընթացիկ սկավառակները ավելի մեծ սկավառակներով (մինչև 2 ՏԲ) տեղեկատվության փոխանցման միջոցով: Այս դեպքում մենք ունենք 2 x 240 ԳԲ SSD (RAID-1) սկավառակ՝ տեղադրված համակարգով և 2 x 1 ՏԲ SATA սկավառակներ, որոնց պետք է փոխանցվի համակարգը:
Եկեք նայենք ընթացիկ սկավառակի դասավորությանը:
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
Եկեք ստուգենք ներկայումս օգտագործվող ֆայլային համակարգի տարածքը:
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,6M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
Սկավառակները փոխարինելուց առաջ ֆայլային համակարգի չափը 204 ԳԲ է, օգտագործվում է 2 md126 ծրագրային զանգված, որը տեղադրված է. /boot
и md127
, որն օգտագործվում է որպես ֆիզիկական ծավալը VG խմբի համար vg0.
1. Սկավառակի միջնորմների հեռացում զանգվածներից
Զանգվածի վիճակի ստուգում
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
Համակարգն օգտագործում է 2 զանգված. md126
(տեղադրման կետ /boot
) - բաղկացած է հատվածից /dev/sda1
и /dev/sdb1
, md127
(LVM-ի համար փոխանակման և ֆայլային համակարգի արմատը) - բաղկացած է /dev/sda2
и /dev/sdb2
.
Մենք նշում ենք առաջին սկավառակի բաժանումները, որոնք օգտագործվում են յուրաքանչյուր զանգվածում որպես վատ:
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
Մենք զանգվածներից հեռացնում ենք /dev/sda բլոկ սարքի միջնորմները։
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
Այն բանից հետո, երբ մենք հեռացրինք սկավառակը զանգվածից, արգելափակման սարքի տեղեկատվությունը կունենա այսպիսի տեսք.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
Զանգվածների վիճակը սկավառակները հեռացնելուց հետո:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
2. Պատճենեք բաժանման աղյուսակը նոր սկավառակի վրա
Դուք կարող եք ստուգել օգտագործված բաժանման աղյուսակը սկավառակի վրա հետևյալ հրամանով.
fdisk -l /dev/sdb | grep 'Disk label type'
MBR-ի ելքը կլինի.
Disk label type: dos
GPT-ի համար.
Disk label type: gpt
MBR-ի բաժանման աղյուսակի պատճենում.
sfdisk -d /dev/sdb | sfdisk /dev/sdc
Այս թիմում առաջինը սկավառակը նշված է с որոնցից նշումը պատճենված է, երկրորդ - որտեղ պատճենել.
ՈՒՇԱԴՐՈՒԹՅՈՒՆGPT-ի համար առաջինը սկավառակը նշված է որի վրա պատճենահանման նշում, երկրորդը սկավառակը ցույց է տալիս սկավառակը որից պատճենահանման նշում. Եթե դուք խառնեք սկավառակները, ապա սկզբնական լավ բաժանումը կվերագրվի և կկործանվի:
GPT-ի դասավորության աղյուսակի պատճենում.
sgdisk -R /dev/sdс /dev/sdb
Հաջորդը, սկավառակին նշանակեք պատահական UUID (GPT-ի համար):
sgdisk -G /dev/sdc
Հրամանի կատարումից հետո բաժինները պետք է հայտնվեն սկավառակի վրա /dev/sdc
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
└─sdc2 8:34 0 222,5G 0 part
sdd 8:48 0 931,5G 0 disk
Եթե գործողությունը կատարելուց հետո համակարգում գտնվող բաժանումները սկավառակի վրա /dev/sdc
չորոշված, ապա մենք կատարում ենք բաժանման աղյուսակը վերընթերցելու հրամանը:
sfdisk -R /dev/sdc
Եթե ընթացիկ սկավառակներն օգտագործում են MBR աղյուսակը, և տեղեկատվությունը պետք է փոխանցվի 2 ՏԲ-ից մեծ սկավառակների վրա, ապա նոր սկավառակների վրա դուք պետք է ձեռքով ստեղծեք GPT միջնորմ՝ օգտագործելով biosboot միջնորմը: Այս դեպքը կքննարկվի սույն հոդվածի 2-րդ մասում:
3. Նոր սկավառակի միջնապատերի ավելացում զանգվածին
Համապատասխան զանգվածներին ավելացնենք սկավառակի միջնորմներ։
mdadm /dev/md126 --add /dev/sdc1
mdadm /dev/md127 --add /dev/sdc2
Մենք ստուգում ենք, որ բաժինները ավելացվել են:
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
Դրանից հետո մենք սպասում ենք զանգվածների համաժամացմանը:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[==>..................] recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
Դուք կարող եք շարունակաբար վերահսկել համաժամացման գործընթացը, օգտագործելով կոմունալը watch
.
watch -n 2 cat /proc/mdstat
Parameter -n
նշում է, թե վայրկյանների ինչ ընդմիջումներով պետք է կատարվի հրամանը՝ առաջընթացը ստուգելու համար:
Կրկնեք 1-3 քայլերը հաջորդ փոխարինող սկավառակի համար:
Մենք նշում ենք երկրորդ սկավառակի բաժանմունքները, որոնք օգտագործվում են յուրաքանչյուր զանգվածում որպես վատ:
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
Սարքի արգելափակման միջնորմների հեռացում /dev/sdb
զանգվածներից։
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
Այն բանից հետո, երբ մենք հեռացրինք սկավառակը զանգվածից, արգելափակման սարքի տեղեկատվությունը կունենա այսպիսի տեսք.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
Զանգվածների վիճակը սկավառակները հեռացնելուց հետո:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2]
1047552 blocks super 1.2 [2/1] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
MBR բաժանման աղյուսակի պատճենումը սկավառակից /dev/sdс
սկավառակի վրա /dev/sdd
.
sfdisk -d /dev/sdс | sfdisk /dev/sdd
Հրամանի կատարումից հետո բաժինները պետք է հայտնվեն սկավառակի վրա /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
└─sdd2 8:50 0 222,5G 0 part
Սկավառակի միջնորմների ավելացում զանգվածներին:
mdadm /dev/md126 --add /dev/sdd1
mdadm /dev/md127 --add /dev/sdd2
Մենք ստուգում ենք, որ բաժինները ավելացվել են:
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
Դրանից հետո մենք սպասում ենք զանգվածների համաժամացմանը:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd1[3] sdc1[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdd2[3] sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
5. GRUB-ի տեղադրում նոր սկավառակների վրա
CentOS-ի համար.
grub2-install /dev/sdX
Debian/Ubuntu:
grub-install /dev/sdX
որտեղ X
- բլոկ սարքի տառը: Այս դեպքում դուք պետք է տեղադրեք GRUB-ը /dev/sdc
и /dev/sdd
.
6. Արմատային բաժանման ֆայլային համակարգի ընդլայնում (ext4):
Նոր սկավառակների վրա /dev/sdc
и /dev/sdd
Առկա է 931.5 ԳԲ: Շնորհիվ այն բանի, որ բաժանման աղյուսակը պատճենվել է ավելի փոքր սկավառակներից, միջնորմներից /dev/sdc2
и /dev/sdd2
Հասանելի է 222.5 ԳԲ:
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
Անհրաժեշտ է,
- Ընդլայնել բաժին 2-ը յուրաքանչյուր սկավառակի վրա,
- Ընդլայնել զանգվածը md127,
- Ընդլայնել PV (ֆիզիկական ծավալը),
- Ընդլայնել LV (տրամաբանական ծավալ) vg0-root,
- Ընդլայնել ֆայլային համակարգը:
Օգտագործելով կոմունալ բաժանվեց ընդլայնենք բաժինը /dev/sdc2
առավելագույն արժեքին: Կատարեք հրամանը parted /dev/sdc
(1) և դիտեք ընթացիկ բաժանման աղյուսակը հրամանով p
(2).
Ինչպես տեսնում եք, բաժանման 2-ի վերջն ավարտվում է 240 ԳԲ-ով: Եկեք ընդլայնենք բաժինը հրամանով resizepart
2
, որտեղ 2-ը (3) բաժնի թիվն է։ Մենք նշում ենք արժեքը թվային ձևաչափով, օրինակ՝ 1000 ԳԲ, կամ օգտագործում ենք սկավառակի մասնաբաժնի նշումը՝ 100%։ Կրկին ստուգում ենք, որ միջնորմն ունի նոր չափ (4):
Կրկնեք վերը նշված քայլերը սկավառակի համար /dev/sdd
. Միջնապատերի ընդլայնումից հետո /dev/sdc2
и /dev/sdd2
դարձավ 930.5 ԳԲ-ի:
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
Դրանից հետո մենք ընդլայնում ենք զանգվածը md127 առավելագույնը:
mdadm --grow /dev/md127 --size=max
Մենք ստուգում ենք, որ զանգվածը ընդլայնվել է: Այժմ դրա չափը դարձել է 930.4 ԳԲ։
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
Ընդլայնումը ֆիզիկական ծավալը. Նախքան ընդլայնելը, եկեք ստուգենք ՖՎ-ի ներկայիս վիճակը:
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [222,40 GiB / 0 free]
Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0 ]
Ինչպես երեւում է, ՊՎ /dev/md127
օգտագործում է 222.4 ԳԲ տարածք:
Մենք ընդլայնում ենք PV-ն հետևյալ հրամանով.
pvresize /dev/md127
ՖՎ ընդլայնման արդյունքի ստուգում:
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [930,38 GiB / 707,98 GiB free]
Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0 ]
Ընդլայնվող տրամաբանական ծավալը. Նախքան ընդլայնվելը, եկեք ստուգենք LV-ի ներկայիս վիճակը (1):
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<206,41 GiB] inherit
LV /dev/vg0/root
օգտագործում է 206.41 ԳԲ:
Մենք ընդլայնում ենք LV-ն հետևյալ հրամանով (2).
lvextend -l +100%FREE /dev/mapper/vg0-root
Մենք ստուգում ենք կատարված գործողությունը (3):
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<914,39 GiB] inherit
Ինչպես տեսնում եք, LV-ն ընդլայնելուց հետո սկավառակի զբաղեցրած տարածքի քանակը դարձավ 914.39 ԳԲ:
LV ծավալն ավելացել է (4), բայց ֆայլային համակարգը դեռ զբաղեցնում է 204 ԳԲ (5):
1. Եկեք ընդլայնենք ֆայլային համակարգը:
resize2fs /dev/mapper/vg0-root
Հրամանի կատարումից հետո մենք ստուգում ենք ֆայլային համակարգի չափը։
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,5M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 900G 1,3G 860G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
Արմատային ֆայլային համակարգի չափը կավելանա մինչև 900 ԳԲ: Քայլերը կատարելուց հետո կարող եք հեռացնել հին սկավառակները:
Դեպք 2. Փոքր սկավառակների փոխարինում ավելի մեծ սկավառակներով (ավելի քան 2 ՏԲ)
Հանձնարարություն Փոխարինեք ընթացիկ սկավառակները ավելի մեծ սկավառակներով (2 x 3TB)՝ պահպանելով տեղեկատվությունը: Այս դեպքում մենք ունենք 2 x 240 ԳԲ SSD (RAID-1) սկավառակ՝ տեղադրված համակարգով և 2 x 3 ՏԲ SATA սկավառակներ, որոնց պետք է փոխանցվի համակարգը: Ընթացիկ սկավառակներն օգտագործում են MBR բաժանման աղյուսակը: Քանի որ նոր սկավառակներն ունեն 2 ՏԲ-ից ավելի հզորություն, նրանք պետք է օգտագործեն GPT աղյուսակ, քանի որ MBR-ը չի կարող աշխատել 2 ՏԲ-ից մեծ սկավառակների հետ:
Եկեք նայենք ընթացիկ սկավառակի դասավորությանը:
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
sdd 8:48 0 2,7T 0 disk
Եկեք ստուգենք սկավառակի վրա օգտագործվող բաժանման աղյուսակը /dev/sda
.
[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos
Սկավառակի վրա /dev/sdb
օգտագործվում է նմանատիպ բաժանման աղյուսակ: Եկեք ստուգենք օգտագործված սկավառակի տարածությունը համակարգում:
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,5M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
Ինչպես տեսնում եք, ֆայլային համակարգի արմատը զբաղեցնում է 204 ԳԲ: Եկեք ստուգենք ծրագրային ապահովման RAID զանգվածի ներկա վիճակը:
1. GPT բաժանման աղյուսակի և սկավառակի բաժանման տեղադրում
Եկեք ստուգենք սկավառակի դասավորությունը ըստ հատվածի:
[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags:
Номер Начало Конец Размер Тип Файловая система Флаги
1 1049kB 1076MB 1075MB primary загрузочный, raid
2 1076MB 240GB 239GB primary raid
Նոր 3TB սկավառակի վրա մեզ անհրաժեշտ կլինի ստեղծել 3 բաժին.
- Բաժին
bios_grub
2 MiB չափ GPT BIOS-ի համատեղելիության համար, - RAID զանգվածի բաժանումը, որը տեղադրվելու է
/boot
. - RAID զանգվածի բաժանումը, որի վրա կլինի LV արմատ и LV փոխանակում.
Կոմունալ ծրագրի տեղադրում բաժանվեց թիմը yum install -y parted
(CentOS-ի համար), apt install -y parted
(Debian/Ubuntu-ի համար):
Օգտագործելով բաժանվեց Եկեք գործարկենք հետևյալ հրամանները՝ սկավառակը բաժանելու համար.
Կատարեք հրամանը parted /dev/sdc
և անցեք սկավառակի դասավորության խմբագրման ռեժիմ:
Ստեղծեք GPT բաժանման աղյուսակ:
(parted) mktable gpt
Ստեղծեք 1 բաժին bios_grub
բաժինը և դրոշակ դրել դրա համար:
(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on
Ստեղծեք բաժին 2 և դրոշակ դրեք դրա համար: Բաժանմունքը կօգտագործվի որպես RAID զանգվածի բլոկ և կտեղադրվի այնտեղ /boot
.
(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on
Մենք ստեղծում ենք 3-րդ բաժին, որը կօգտագործվի նաև որպես զանգվածի բլոկ, որի մեջ կտեղակայվի LVM-ը։
(parted) mkpart primary 1028MiB 100%
Այս դեպքում դրոշը դնել պարտադիր չէ, բայց անհրաժեշտության դեպքում այն կարելի է դնել հետևյալ հրամանով.
(parted) set 3 raid on
Ստուգում ենք ստեղծված աղյուսակը։
(parted) p
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags:
Номер Начало Конец Размер Файловая система Имя Флаги
1 1049kB 3146kB 2097kB primary bios_grub
2 3146kB 1077MB 1074MB primary загрузочный
3 1077MB 3001GB 3000GB primary
Մենք նոր պատահական GUID ենք վերագրում սկավառակին:
sgdisk -G /dev/sdd
2. Առաջին սկավառակի միջնապատերի հեռացում զանգվածներից
Զանգվածի վիճակի ստուգում
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
Համակարգն օգտագործում է 2 զանգված՝ md126 (mount point /boot) - բաղկացած է /dev/sda1
и /dev/sdb1
, md127
(LVM-ի համար swap
և ֆայլային համակարգի արմատը) - բաղկացած է /dev/sda2
и /dev/sdb2
.
Մենք նշում ենք առաջին սկավառակի բաժանումները, որոնք օգտագործվում են յուրաքանչյուր զանգվածում որպես վատ:
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
Սարքի արգելափակման միջնորմների հեռացում /dev/sda
զանգվածներից։
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
Սկավառակը հեռացնելուց հետո զանգվածի վիճակի ստուգում:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
3. Նոր սկավառակի միջնապատերի ավելացում զանգվածին
Հաջորդ քայլը նոր սկավառակի միջնապատերի ավելացումն է զանգվածներին համաժամացման համար: Եկեք նայենք սկավառակի դասավորության ներկա վիճակին:
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
└─sdc3 8:35 0 2,7T 0 part
sdd 8:48 0 2,7T 0 disk
Բաժին /dev/sdc1
է bios_grub
բաժինը և ներգրավված չէ զանգվածների ստեղծման մեջ: Զանգվածները կօգտագործվեն միայն /dev/sdc2
и /dev/sdc3
. Մենք ավելացնում ենք այս հատվածները համապատասխան զանգվածներին։
mdadm /dev/md126 --add /dev/sdc2
mdadm /dev/md127 --add /dev/sdc3
Այնուհետև մենք սպասում ենք զանգվածի համաժամացմանը:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc2[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc3[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[>....................] recovery = 0.2% (619904/233206784) finish=31.2min speed=123980K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
Սկավառակի բաժանում զանգվածին միջնորմներ ավելացնելուց հետո:
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
4. Երկրորդ սկավառակի միջնապատերի հեռացում զանգվածներից
Մենք նշում ենք երկրորդ սկավառակի բաժանմունքները, որոնք օգտագործվում են յուրաքանչյուր զանգվածում որպես վատ:
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
Սարքի արգելափակման միջնորմների հեռացում /dev/sda
զանգվածներից։
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
5. Պատճենեք GPT դասավորության աղյուսակը և համաժամացրեք զանգվածը
GPT նշագրման աղյուսակը պատճենելու համար մենք կօգտագործենք կոմունալ ծրագիրը sgdisk
, որը ներառված է սկավառակի միջնորմների և GPT աղյուսակի հետ աշխատելու փաթեթում. gdisk
.
Տեղակայում gdisk
CentOS-ի համար.
yum install -y gdisk
Տեղակայում gdisk
Debian/Ubuntu-ի համար.
apt install -y gdisk
ՈՒՇԱԴՐՈՒԹՅՈՒՆGPT-ի համար առաջինը սկավառակը նշված է որի վրա պատճենեք նշումը, երկրորդը սկավառակը ցույց է տալիս սկավառակը որից պատճենեք նշումը: Եթե դուք խառնեք սկավառակները, ապա սկզբնական լավ բաժանումը կվերագրվի և կկործանվի:
Պատճենեք GPT նշագրման աղյուսակը:
sgdisk -R /dev/sdd /dev/sdc
Սկավառակի բաժանում աղյուսակը սկավառակի վրա տեղափոխելուց հետո /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
└─sdd3 8:51 0 2,7T 0 part
Հաջորդը, մենք ավելացնում ենք ծրագրային RAID զանգվածներին մասնակցող բաժանմունքներից յուրաքանչյուրը:
mdadm /dev/md126 --add /dev/sdd2
mdadm /dev/md127 --add /dev/sdd3
Մենք սպասում ենք զանգվածի համաժամացմանը:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd2[3] sdc2[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 1/1 pages [4KB], 65536KB chunk
md127 : active raid1 sdd3[3] sdc3[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.0% (148224/233206784) finish=26.2min speed=148224K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
GPT միջնորմը երկրորդ նոր սկավառակի վրա պատճենելուց հետո բաժանումը կունենա այսպիսի տեսք.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
Հաջորդը, տեղադրեք GRUB-ը նոր սկավառակների վրա:
Տեղադրում CentOS-ի համար.
grub2-install /dev/sdX
Տեղադրում Debian/Ubuntu-ի համար.
grub-install /dev/sdX
որտեղ X
— դրայվ տառ, մեր դեպքում դրայվներ /dev/sdc
и /dev/sdd
.
Մենք թարմացնում ենք զանգվածի մասին տեղեկատվությունը:
CentOS-ի համար.
mdadm --detail --scan --verbose > /etc/mdadm.conf
Debian/Ubuntu:
echo "DEVICE partitions" > /etc/mdadm/mdadm.conf
mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf
Պատկերի թարմացում initrd
:
CentOS-ի համար.
dracut -f -v --regenerate-all
Debian/Ubuntu:
update-initramfs -u -k all
Մենք թարմացնում ենք GRUB-ի կոնֆիգուրացիան:
CentOS-ի համար.
grub2-mkconfig -o /boot/grub2/grub.cfg
Debian/Ubuntu:
update-grub
Քայլերը կատարելուց հետո հին սկավառակները կարող են հեռացվել:
6. Արմատային բաժանման ֆայլային համակարգի ընդլայնում (ext4):
Սկավառակի բաժանում նախքան ֆայլային համակարգի ընդլայնումը, համակարգը տեղափոխելուց հետո 2 x 3TB սկավառակներ (RAID-1):
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
Այժմ բաժիններ /dev/sdc3
и /dev/sdd3
զբաղեցնում է 2.7 ՏԲ: Քանի որ մենք ստեղծեցինք սկավառակի նոր դասավորություն GPT աղյուսակով, բաժանման 3-ի չափը անմիջապես դրվեց սկավառակի հնարավոր առավելագույն տարածության վրա, այս դեպքում բաժանումը ընդլայնելու կարիք չկա:
Անհրաժեշտ է,
- Ընդլայնել զանգվածը md126,
- Ընդլայնել PV (ֆիզիկական ծավալը),
- Ընդլայնել LV (տրամաբանական ծավալ) vg0-root,
- Ընդլայնել ֆայլային համակարգը:
1. Ընդարձակեք զանգվածը md126
առավելագույնը:
mdadm --grow /dev/md126 --size=max
Զանգվածի ընդլայնումից հետո md126
զբաղեցրած տարածքի չափը հասել է 2.7 ՏԲ-ի։
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
Ընդլայնվող ֆիզիկական ծավալը.
Ընդլայնելուց առաջ ստուգեք զբաղեցրած տարածքի ՖՎ-ի ընթացիկ արժեքը /dev/md126
.
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- 222,40g 0
Մենք ընդլայնում ենք PV-ն հետևյալ հրամանով.
pvresize /dev/md126
Մենք ստուգում ենք կատարված գործողությունը:
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- <2,73t 2,51t
Ընդլայնվող տրամաբանական ծավալը vg0-root.
ՖՎ-ն ընդլայնելուց հետո ստուգենք VG-ի զբաղեցրած տարածքը։
[root@localhost ~]# vgs
VG #PV #LV #SN Attr VSize VFree
vg0 1 2 0 wz--n- <2,73t 2,51t
Եկեք ստուգենք LV-ի զբաղեցրած տարածքը։
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- <206,41g
swap vg0 -wi-ao---- <16,00g
vg0-root ծավալը զբաղեցնում է 206.41 ԳԲ:
Մենք ընդլայնում ենք LV-ն առավելագույն սկավառակի տարածությանը:
lvextend -l +100%FREE /dev/mapper/vg0-root
Ընդլայնումից հետո LV տարածքի ստուգում:
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- 2,71t
swap vg0 -wi-ao---- <16,00g
Ֆայլային համակարգի ընդլայնում (ext4):
Եկեք ստուգենք ֆայլային համակարգի ներկայիս չափը:
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,4G 192G 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
Ծավալը /dev/mapper/vg0-root-ը զբաղեցնում է 204 ԳԲ LV-ի ընդլայնումից հետո:
Ֆայլային համակարգի ընդլայնում:
resize2fs /dev/mapper/vg0-root
Ստուգելով ֆայլային համակարգի չափը այն ընդլայնելուց հետո:
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 2,7T 1,4G 2,6T 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
Ֆայլային համակարգի չափը մեծացվել է՝ ամբողջ ծավալը ծածկելու համար:
Source: www.habr.com