नमस्ते सबै। नयाँ पाठ्यक्रम समूहको सुरुवातको पूर्वसन्ध्यामा
यस लेखले एरे र फाइल प्रणालीको थप विस्तारको साथ डिस्कहरू प्रतिस्थापन गर्ने र ठूला क्षमताको नयाँ डिस्कहरूमा जानकारी स्थानान्तरण गर्ने 2 मामिलाहरू विचार गर्नेछ। पहिलो केसले समान MBR/MBR वा GPT/GPT विभाजनको साथ डिस्कको प्रतिस्थापनलाई चिन्ता गर्दछ, दोस्रो केसले MBR विभाजनको साथ 2 TB भन्दा बढी क्षमताको डिस्कहरूसँग डिस्कको प्रतिस्थापनको बारेमा चिन्ता गर्दछ, जसमा तपाईंले स्थापना गर्नुपर्नेछ। biosboot विभाजन संग GPT विभाजन। दुबै अवस्थामा, हामीले डाटा स्थानान्तरण गर्ने डिस्कहरू पहिले नै सर्भरमा स्थापित छन्। मूल विभाजनको लागि प्रयोग गरिएको फाइल प्रणाली ext4 हो।
केस 1: ठूला डिस्कहरूसँग साना डिस्कहरू प्रतिस्थापन गर्दै (2TB सम्म)
कार्य: हालको डिस्कहरू ठूला डिस्कहरू (2 TB सम्म) जानकारी स्थानान्तरणको साथ बदल्नुहोस्। यस अवस्थामा, हामीसँग 2 x 240 GB SSD (RAID-1) प्रणाली स्थापना भएको डिस्कहरू र 2 x 1 TB SATA डिस्कहरू छन् जसमा प्रणाली स्थानान्तरण गर्न आवश्यक छ।
हालको डिस्क लेआउट हेरौं।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
हाल प्रयोग गरिएको फाइल प्रणाली स्पेस जाँच गरौं।
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,6M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
डिस्क प्रतिस्थापन गर्नु अघि फाइल प्रणालीको आकार 204 GB हो, 2 md126 सफ्टवेयर arrays प्रयोग गरिन्छ, जुन मा माउन्ट गरिएको छ। /boot
и md127
को रूपमा प्रयोग गरिन्छ भौतिक मात्रा VG समूहको लागि vg0.
1. arrays बाट डिस्क विभाजनहरू हटाउँदै
एरेको अवस्था जाँच गर्दै
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
प्रणाली 2 arrays प्रयोग गर्दछ: md126
(माउन्ट बिन्दु /boot
) - एक खण्ड मिलेर बनेको छ /dev/sda1
и /dev/sdb1
, md127
(LVM का लागि स्वाप र फाइल प्रणालीको मूल) - समावेश छ /dev/sda2
и /dev/sdb2
.
हामीले प्रत्येक एरेमा प्रयोग हुने पहिलो डिस्कको विभाजनहरूलाई खराबको रूपमा चिन्ह लगाउँछौं।
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
हामी arrays बाट /dev/sda ब्लक उपकरण विभाजनहरू हटाउँछौं।
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
हामीले एरेबाट डिस्क हटाइसकेपछि, ब्लक उपकरण जानकारी यस्तो देखिनेछ।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
डिस्क हटाए पछि arrays को स्थिति।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
2. नयाँ डिस्कमा विभाजन तालिका प्रतिलिपि गर्नुहोस्
तपाइँ निम्न आदेशको साथ डिस्कमा प्रयोग गरिएको विभाजन तालिका जाँच गर्न सक्नुहुन्छ।
fdisk -l /dev/sdb | grep 'Disk label type'
MBR को लागि आउटपुट हुनेछ:
Disk label type: dos
GPT को लागि:
Disk label type: gpt
MBR को लागि विभाजन तालिका प्रतिलिपि गर्दै:
sfdisk -d /dev/sdb | sfdisk /dev/sdc
यस टोलीमा первым डिस्क संकेत गरिएको छ с जसको मार्कअप प्रतिलिपि गरिएको छ, दोस्रो - कहाँ कापी।
ATTENTION: GPT को लागी первым डिस्क संकेत गरिएको छ जसमा प्रतिलिपि मार्कअप, दोस्रो डिस्कले डिस्कलाई संकेत गर्दछ कुन बाट मार्कअप प्रतिलिपि गर्नुहोस्। यदि तपाईंले डिस्कहरू मिलाउनुभयो भने, सुरुमा राम्रो विभाजन अधिलेखन र नष्ट हुनेछ।
GPT को लागि लेआउट तालिका प्रतिलिपि गर्दै:
sgdisk -R /dev/sdс /dev/sdb
अर्को, डिस्कमा अनियमित UUID असाइन गर्नुहोस् (GPT को लागि)।
sgdisk -G /dev/sdc
आदेश कार्यान्वयन भएपछि, विभाजनहरू डिस्कमा देखा पर्दछ /dev/sdc
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
└─sdc2 8:34 0 222,5G 0 part
sdd 8:48 0 931,5G 0 disk
यदि, कार्य सम्पन्न भएपछि, डिस्कमा प्रणालीमा विभाजनहरू /dev/sdc
अनिश्चित, त्यसपछि हामी विभाजन तालिका पुन: पढ्न आदेश कार्यान्वयन गर्छौं।
sfdisk -R /dev/sdc
यदि हालको डिस्कहरूले MBR तालिका प्रयोग गर्दछ र जानकारी 2 TB भन्दा ठूला डिस्कहरूमा स्थानान्तरण गर्न आवश्यक छ भने, नयाँ डिस्कहरूमा तपाईंले बायोसबुट विभाजन प्रयोग गरेर म्यानुअल रूपमा GPT विभाजन सिर्जना गर्न आवश्यक पर्दछ। यो मामला यस लेखको भाग 2 मा छलफल गरिनेछ।
3. एरेमा नयाँ डिस्कको विभाजनहरू थप्दै
सम्बन्धित एरेहरूमा डिस्क विभाजनहरू थपौं।
mdadm /dev/md126 --add /dev/sdc1
mdadm /dev/md127 --add /dev/sdc2
हामी जाँच गर्छौं कि खण्डहरू थपिएका छन्।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
यस पछि, हामी एरेहरू सिंक्रोनाइज हुनको लागि पर्खन्छौं।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[==>..................] recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
तपाईं उपयोगिता प्रयोग गरेर सिंक्रोनाइजेसन प्रक्रिया लगातार निगरानी गर्न सक्नुहुन्छ watch
.
watch -n 2 cat /proc/mdstat
परिमिति -n
सेकेन्डमा कुन अन्तरालहरूमा कमाण्डलाई प्रगति जाँच गर्न कार्यान्वयन गरिनु पर्छ निर्दिष्ट गर्दछ।
अर्को प्रतिस्थापन डिस्कको लागि चरण 1 - 3 दोहोर्याउनुहोस्।
हामीले प्रत्येक एरेमा प्रयोग हुने दोस्रो डिस्कको विभाजनहरूलाई खराबको रूपमा चिन्ह लगाउँछौं।
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
ब्लक उपकरण विभाजनहरू हटाउँदै /dev/sdb
arrays बाट।
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
हामीले एरेबाट डिस्क हटाइसकेपछि, ब्लक उपकरण जानकारी यस्तो देखिनेछ।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
डिस्क हटाए पछि arrays को स्थिति।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2]
1047552 blocks super 1.2 [2/1] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
डिस्कबाट MBR विभाजन तालिका प्रतिलिपि गर्दै /dev/sdс
डिस्कमा /dev/sdd
.
sfdisk -d /dev/sdс | sfdisk /dev/sdd
आदेश कार्यान्वयन भएपछि, विभाजनहरू डिस्कमा देखा पर्दछ /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
└─sdd2 8:50 0 222,5G 0 part
एरेहरूमा डिस्क विभाजनहरू थप्दै।
mdadm /dev/md126 --add /dev/sdd1
mdadm /dev/md127 --add /dev/sdd2
हामी जाँच गर्छौं कि खण्डहरू थपिएका छन्।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
यस पछि, हामी एरेहरू सिंक्रोनाइज हुनको लागि पर्खन्छौं।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd1[3] sdc1[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdd2[3] sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
5. नयाँ ड्राइभहरूमा GRUB स्थापना गर्दै
CentOS को लागि:
grub2-install /dev/sdX
Debian/Ubuntu को लागि:
grub-install /dev/sdX
जहाँ X
- ब्लक उपकरणको पत्र। यस अवस्थामा, तपाईंले GRUB लाई स्थापना गर्न आवश्यक छ /dev/sdc
и /dev/sdd
.
6. मूल विभाजनको फाइल प्रणाली विस्तार (ext4)
नयाँ डिस्कहरूमा /dev/sdc
и /dev/sdd
931.5 GB उपलब्ध छ। विभाजन तालिका साना डिस्कहरू, विभाजनहरूबाट प्रतिलिपि गरिएको तथ्यको कारणले गर्दा /dev/sdc2
и /dev/sdd2
222.5 GB उपलब्ध छ।
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
यो आवश्यक छ:
- प्रत्येक डिस्कमा विभाजन 2 विस्तार गर्नुहोस्,
- विस्तार एरे md127,
- PV (भौतिक भोल्युम) विस्तार गर्नुहोस्,
- विस्तार गर्नुहोस् LV (तार्किक-भोल्युम) vg0-root,
- फाइल प्रणाली विस्तार गर्नुहोस्।
उपयोगिता प्रयोग गर्दै खण्डित खण्ड विस्तार गरौं /dev/sdc2
अधिकतम मूल्य सम्म। आदेश कार्यान्वयन गर्नुहोस् parted /dev/sdc
(१) र आदेशको साथ हालको विभाजन तालिका हेर्नुहोस् p
(2)।
तपाईले देख्न सक्नुहुन्छ, विभाजन 2 को अन्त्य 240 GB मा समाप्त हुन्छ। आदेशको साथ विभाजन विस्तार गरौं resizepart
2
, जहाँ 2 खण्ड (3) को संख्या हो। हामी डिजिटल ढाँचामा मान संकेत गर्छौं, उदाहरणका लागि 1000 GB, वा डिस्क साझेदारीको संकेत प्रयोग गर्नुहोस् - 100%। हामी फेरि जाँच गर्छौं कि विभाजनमा नयाँ आकार (4) छ।
डिस्कको लागि माथिका चरणहरू दोहोर्याउनुहोस् /dev/sdd
। विभाजन विस्तार पछि /dev/sdc2
и /dev/sdd2
930.5 GB बराबर भयो।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
यस पछि हामी एरे विस्तार गर्छौं md127 अधिकतम सम्म।
mdadm --grow /dev/md127 --size=max
हामी जाँच गर्छौं कि एरे विस्तार भएको छ। अब यसको साइज 930.4 GB भएको छ।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
विस्तार विस्तार गर्दै भौतिक मात्रा। विस्तार गर्नु अघि, PV को हालको अवस्था जाँच गरौं।
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [222,40 GiB / 0 free]
Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0 ]
देख्न सकिन्छ, PV /dev/md127
222.4 GB ठाउँ प्रयोग गर्दछ।
हामीले निम्न आदेशको साथ PV विस्तार गर्छौं।
pvresize /dev/md127
PV विस्तारको नतिजा जाँच गर्दै।
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [930,38 GiB / 707,98 GiB free]
Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0 ]
विस्तार गर्दै तार्किक मात्रा। विस्तार गर्नु अघि, LV (1) को हालको अवस्था जाँच गरौं।
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<206,41 GiB] inherit
LV /dev/vg0/root
206.41 GB प्रयोग गर्दछ।
हामी निम्न आदेश (2) को साथ LV विस्तार गर्छौं।
lvextend -l +100%FREE /dev/mapper/vg0-root
हामी पूरा भएको कार्य जाँच गर्छौं (3)।
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<914,39 GiB] inherit
तपाईले देख्न सक्नुहुन्छ, LV विस्तार गरेपछि, कब्जा गरिएको डिस्क स्पेसको मात्रा 914.39 GB भयो।
LV भोल्युम बढेको छ (4), तर फाइल प्रणालीले अझै 204 GB (5) ओगटेको छ।
1. फाइल प्रणाली विस्तार गरौं।
resize2fs /dev/mapper/vg0-root
आदेश कार्यान्वयन भएपछि, हामी फाइल प्रणालीको आकार जाँच गर्छौं।
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,5M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 900G 1,3G 860G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
रूट फाइल प्रणालीको आकार 900 GB मा बढ्नेछ। चरणहरू पूरा गरेपछि, तपाईं पुरानो डिस्कहरू हटाउन सक्नुहुन्छ।
केस २: साना डिस्कहरू ठूला डिस्कहरूसँग प्रतिस्थापन गर्दै (2TB भन्दा बढी)
व्यायाम: हालको डिस्कहरू ठूला डिस्कहरू (2 x 3TB) संग जानकारी सुरक्षित गर्दा बदल्नुहोस्। यस अवस्थामा, हामीसँग 2 x 240 GB SSD (RAID-1) प्रणाली स्थापना भएको डिस्कहरू र 2 x 3 TB SATA डिस्कहरू छन् जसमा प्रणाली स्थानान्तरण गर्न आवश्यक छ। हालको डिस्कहरूले MBR विभाजन तालिका प्रयोग गर्दछ। नयाँ डिस्कको क्षमता २ TB भन्दा बढी भएको हुनाले, MBR ले २ TB भन्दा ठूला डिस्कहरूसँग काम गर्न नसक्नेले GPT तालिका प्रयोग गर्नुपर्ने हुन्छ।
हालको डिस्क लेआउट हेरौं।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
sdd 8:48 0 2,7T 0 disk
डिस्कमा प्रयोग गरिएको विभाजन तालिका जाँच गरौं /dev/sda
.
[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos
डिस्कमा /dev/sdb
समान विभाजन तालिका प्रयोग गरिन्छ। प्रणालीमा प्रयोग गरिएको डिस्क स्पेस जाँच गरौं।
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,5M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
तपाईले देख्न सक्नुहुन्छ, फाइल प्रणालीको रूटले 204 GB लिन्छ। सफ्टवेयर RAID array को हालको अवस्था जाँच गरौं।
1. GPT विभाजन तालिका र डिस्क विभाजन स्थापना
सेक्टर द्वारा डिस्क लेआउट जाँच गरौं।
[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags:
Номер Начало Конец Размер Тип Файловая система Флаги
1 1049kB 1076MB 1075MB primary загрузочный, raid
2 1076MB 240GB 239GB primary raid
नयाँ 3TB डिस्कमा हामीले 3 विभाजनहरू सिर्जना गर्न आवश्यक हुनेछ:
- सेक्सन
bios_grub
GPT BIOS अनुकूलताको लागि 2MiB आकार, - RAID array को लागि विभाजन जुन मा माउन्ट गरिनेछ
/boot
. - RAID array को लागि विभाजन जसमा त्यहाँ हुनेछ LV रूट и LV स्वैप.
उपयोगिता स्थापना गर्दै खण्डित टोली yum install -y parted
(CentOS को लागि), apt install -y parted
(डेबियन/उबुन्टुका लागि)।
प्रयोग गर्दै खण्डित डिस्क विभाजन गर्न निम्न आदेशहरू चलाउनुहोस्।
आदेश कार्यान्वयन गर्नुहोस् parted /dev/sdc
र डिस्क लेआउट सम्पादन मोडमा जानुहोस्।
GPT विभाजन तालिका सिर्जना गर्नुहोस्।
(parted) mktable gpt
१ खण्ड सिर्जना गर्नुहोस् bios_grub
खण्ड र यसको लागि झण्डा सेट गर्नुहोस्।
(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on
विभाजन 2 सिर्जना गर्नुहोस् र यसको लागि झण्डा सेट गर्नुहोस्। विभाजन RAID array को लागि ब्लकको रूपमा प्रयोग गरिनेछ र माउन्ट गरिनेछ /boot
.
(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on
हामी तेस्रो खण्ड सिर्जना गर्छौं, जसलाई एरे ब्लकको रूपमा पनि प्रयोग गरिनेछ जसमा LVM अवस्थित हुनेछ।
(parted) mkpart primary 1028MiB 100%
यस अवस्थामा, यो झण्डा सेट गर्न आवश्यक छैन, तर आवश्यक भएमा, यो निम्न आदेश संग सेट गर्न सकिन्छ।
(parted) set 3 raid on
हामी सिर्जना गरिएको तालिका जाँच गर्छौं।
(parted) p
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags:
Номер Начало Конец Размер Файловая система Имя Флаги
1 1049kB 3146kB 2097kB primary bios_grub
2 3146kB 1077MB 1074MB primary загрузочный
3 1077MB 3001GB 3000GB primary
हामी डिस्कमा नयाँ अनियमित GUID असाइन गर्छौं।
sgdisk -G /dev/sdd
2. एरेहरूबाट पहिलो डिस्कको विभाजनहरू हटाउँदै
एरेको अवस्था जाँच गर्दै
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
प्रणालीले २ arrays प्रयोग गर्दछ: md2 (माउन्ट पोइन्ट/बूट) - समावेश हुन्छ /dev/sda1
и /dev/sdb1
, md127
(LVM का लागि swap
र फाइल प्रणालीको मूल) - समावेश छ /dev/sda2
и /dev/sdb2
.
हामीले प्रत्येक एरेमा प्रयोग हुने पहिलो डिस्कको विभाजनहरूलाई खराबको रूपमा चिन्ह लगाउँछौं।
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
ब्लक उपकरण विभाजनहरू हटाउँदै /dev/sda
arrays बाट।
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
डिस्क हटाएपछि एरेको अवस्था जाँच गर्दै।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
3. एरेमा नयाँ डिस्कको विभाजनहरू थप्दै
अर्को चरण सिङ्क्रोनाइजेसनको लागि एरेहरूमा नयाँ डिस्कको विभाजनहरू थप्नु हो। डिस्क लेआउटको हालको अवस्था हेरौं।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
└─sdc3 8:35 0 2,7T 0 part
sdd 8:48 0 2,7T 0 disk
सेक्सन /dev/sdc1
यो छ bios_grub
खण्ड र arrays को निर्माण मा संलग्न छैन। arrays मात्र प्रयोग हुनेछ /dev/sdc2
и /dev/sdc3
। हामी यी खण्डहरूलाई सम्बन्धित एरेहरूमा थप्छौं।
mdadm /dev/md126 --add /dev/sdc2
mdadm /dev/md127 --add /dev/sdc3
त्यसपछि हामी एरे सिङ्क्रोनाइजको लागि पर्खन्छौं।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc2[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc3[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[>....................] recovery = 0.2% (619904/233206784) finish=31.2min speed=123980K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
एरेमा विभाजनहरू थपेपछि डिस्क विभाजन।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
4. एरेहरूबाट दोस्रो डिस्कको विभाजनहरू हटाउँदै
हामीले प्रत्येक एरेमा प्रयोग हुने दोस्रो डिस्कको विभाजनहरूलाई खराबको रूपमा चिन्ह लगाउँछौं।
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
ब्लक उपकरण विभाजनहरू हटाउँदै /dev/sda
arrays बाट।
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
5. GPT लेआउट तालिका प्रतिलिपि गर्नुहोस् र एरे सिङ्क्रोनाइज गर्नुहोस्
GPT मार्कअप तालिका प्रतिलिपि गर्न हामी उपयोगिता प्रयोग गर्नेछौं sgdisk
, जुन डिस्क विभाजन र GPT तालिकासँग काम गर्न प्याकेजमा समावेश छ - gdisk
.
सेटिङ gdisk
CentOS को लागि:
yum install -y gdisk
सेटिङ gdisk
Debian/Ubuntu को लागि:
apt install -y gdisk
ATTENTION: GPT को लागी первым डिस्क संकेत गरिएको छ जसमा मार्कअप प्रतिलिपि गर्नुहोस्, दोस्रो डिस्कले डिस्कलाई संकेत गर्दछ कुन बाट मार्कअप प्रतिलिपि गर्नुहोस्। यदि तपाईंले डिस्कहरू मिलाउनुभयो भने, सुरुमा राम्रो विभाजन अधिलेखन र नष्ट हुनेछ।
GPT मार्कअप तालिका प्रतिलिपि गर्नुहोस्।
sgdisk -R /dev/sdd /dev/sdc
डिस्कमा तालिका स्थानान्तरण पछि डिस्क विभाजन /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
└─sdd3 8:51 0 2,7T 0 part
अर्को, हामी सफ्टवेयर RAID एरेहरूमा भाग लिने प्रत्येक विभाजनहरू थप्छौं।
mdadm /dev/md126 --add /dev/sdd2
mdadm /dev/md127 --add /dev/sdd3
हामी एरे सिङ्क्रोनाइजको लागि पर्खिरहेका छौं।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd2[3] sdc2[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 1/1 pages [4KB], 65536KB chunk
md127 : active raid1 sdd3[3] sdc3[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.0% (148224/233206784) finish=26.2min speed=148224K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
दोस्रो नयाँ डिस्कमा GPT विभाजन प्रतिलिपि गरेपछि, विभाजन यस्तो देखिन्छ।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
अर्को, नयाँ डिस्कहरूमा GRUB स्थापना गर्नुहोस्।
CentOS को लागि स्थापना:
grub2-install /dev/sdX
Debian/Ubuntu को लागि स्थापना:
grub-install /dev/sdX
जहाँ X
- ड्राइभ पत्र, हाम्रो मामला ड्राइभ मा /dev/sdc
и /dev/sdd
.
हामी एरे बारे जानकारी अपडेट गर्छौं।
CentOS को लागि:
mdadm --detail --scan --verbose > /etc/mdadm.conf
Debian/Ubuntu को लागि:
echo "DEVICE partitions" > /etc/mdadm/mdadm.conf
mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf
छवि अद्यावधिक गर्दै initrd
:
CentOS को लागि:
dracut -f -v --regenerate-all
Debian/Ubuntu को लागि:
update-initramfs -u -k all
हामी GRUB कन्फिगरेसन अपडेट गर्छौं।
CentOS को लागि:
grub2-mkconfig -o /boot/grub2/grub.cfg
Debian/Ubuntu को लागि:
update-grub
चरणहरू पूरा गरेपछि, पुरानो डिस्कहरू हटाउन सकिन्छ।
6. मूल विभाजनको फाइल प्रणाली विस्तार (ext4)
2 x 3TB डिस्क (RAID-1) मा प्रणाली स्थानान्तरण पछि फाइल प्रणाली विस्तार अघि डिस्क विभाजन।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
अब खण्डहरू /dev/sdc3
и /dev/sdd3
2.7 TB ओगटेको। हामीले GPT तालिकाको साथ नयाँ डिस्क लेआउट सिर्जना गरेकाले, विभाजन 3 को आकार तुरुन्तै अधिकतम सम्भावित डिस्क स्थानमा सेट गरिएको थियो; यस अवस्थामा, विभाजन विस्तार गर्न आवश्यक छैन।
यो आवश्यक छ:
- विस्तार एरे md126,
- PV (भौतिक भोल्युम) विस्तार गर्नुहोस्,
- विस्तार गर्नुहोस् LV (तार्किक-भोल्युम) vg0-root,
- फाइल प्रणाली विस्तार गर्नुहोस्।
1. एरे विस्तार गर्नुहोस् md126
अधिकतम सम्म।
mdadm --grow /dev/md126 --size=max
एरे विस्तार पछि md126
ओगटेको ठाउँको आकार बढेर २.७ TB पुगेको छ।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
विस्तार गर्दै भौतिक मात्रा.
विस्तार गर्नु अघि, कब्जा गरिएको ठाउँ PV / को हालको मान जाँच गर्नुहोस्।dev/md126
.
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- 222,40g 0
हामीले निम्न आदेशको साथ PV विस्तार गर्छौं।
pvresize /dev/md126
हामी सम्पन्न कार्य जाँच गर्छौं।
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- <2,73t 2,51t
विस्तार गर्दै तार्किक भोल्युम vg0-root.
PV विस्तार गरेपछि, कब्जा गरिएको ठाउँ VG जाँच गरौं।
[root@localhost ~]# vgs
VG #PV #LV #SN Attr VSize VFree
vg0 1 2 0 wz--n- <2,73t 2,51t
LV द्वारा ओगटेको ठाउँ जाँच गरौं।
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- <206,41g
swap vg0 -wi-ao---- <16,00g
vg0-रूट भोल्युमले 206.41 GB ओगटेको छ।
हामी LV लाई अधिकतम डिस्क स्थानमा विस्तार गर्छौं।
lvextend -l +100%FREE /dev/mapper/vg0-root
विस्तार पछि LV ठाउँ जाँच गर्दै।
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- 2,71t
swap vg0 -wi-ao---- <16,00g
फाइल प्रणाली विस्तार गर्दै (ext4)।
फाइल प्रणालीको हालको साइज जाँच गरौं।
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,4G 192G 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
भोल्युम /dev/mapper/vg0-root ले LV विस्तार पछि 204 GB ओगटेको छ।
फाइल प्रणाली विस्तार गर्दै।
resize2fs /dev/mapper/vg0-root
यसलाई विस्तार गरेपछि फाइल प्रणालीको आकार जाँच गर्दै।
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 2,7T 1,4G 2,6T 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
सम्पूर्ण भोल्युम कभर गर्न फाइल प्रणाली आकार बढाइएको छ।
स्रोत: www.habr.com