सर्वांना नमस्कार. नवीन अभ्यासक्रम गट सुरू होण्याच्या पूर्वसंध्येला
हा लेख अॅरे आणि फाइल सिस्टमच्या पुढील विस्तारासह डिस्क बदलण्याच्या आणि मोठ्या क्षमतेच्या नवीन डिस्कवर माहिती हस्तांतरित करण्याच्या 2 प्रकरणांचा विचार करेल. पहिले प्रकरण समान MBR/MBR किंवा GPT/GPT विभाजनासह डिस्कच्या पुनर्स्थापनेशी संबंधित आहे, दुसरे प्रकरण 2 TB पेक्षा जास्त क्षमतेच्या डिस्कसह MBR विभाजनासह डिस्कच्या पुनर्स्थापनेशी संबंधित आहे, ज्यावर तुम्हाला स्थापित करणे आवश्यक आहे. बायोसबूट विभाजनासह GPT विभाजन. दोन्ही प्रकरणांमध्ये, आम्ही ज्या डिस्कवर डेटा हस्तांतरित करतो त्या आधीपासून सर्व्हरवर स्थापित केल्या आहेत. रूट विभाजनासाठी वापरलेली फाइल प्रणाली ext4 आहे.
केस 1: लहान डिस्क मोठ्या डिस्कसह बदलणे (2TB पर्यंत)
एक कार्य: सध्याच्या डिस्कला माहिती हस्तांतरणासह मोठ्या डिस्कसह (2 TB पर्यंत) बदला. या प्रकरणात, आमच्याकडे 2 x 240 GB SSD (RAID-1) सिस्टम स्थापित केलेल्या डिस्क्स आहेत आणि 2 x 1 TB SATA डिस्क ज्यावर सिस्टम हस्तांतरित करणे आवश्यक आहे.
चला वर्तमान डिस्क लेआउट पाहू.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
सध्या वापरलेली फाइल सिस्टम स्पेस तपासूया.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,6M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
डिस्क बदलण्यापूर्वी फाइल सिस्टमचा आकार 204 GB आहे, 2 md126 सॉफ्टवेअर अॅरे वापरल्या जातात, ज्यामध्ये माउंट केले जाते. /boot
и md127
, जे म्हणून वापरले जाते भौतिक खंड VG गटासाठी vg0.
1. अॅरेमधून डिस्क विभाजने काढून टाकणे
अॅरेची स्थिती तपासत आहे
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
सिस्टम 2 अॅरे वापरते: md126
(माउंट पॉइंट /boot
) - एक विभाग समाविष्टीत आहे /dev/sda1
и /dev/sdb1
, md127
(साठी LVM स्वॅप आणि फाइल सिस्टमचे रूट) - यांचा समावेश आहे /dev/sda2
и /dev/sdb2
.
आम्ही प्रत्येक अॅरेमध्ये वापरल्या जाणार्या पहिल्या डिस्कचे विभाजन खराब म्हणून चिन्हांकित करतो.
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
आम्ही अॅरेमधून /dev/sda ब्लॉक डिव्हाइस विभाजने काढून टाकतो.
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
आम्ही अॅरेमधून डिस्क काढून टाकल्यानंतर, ब्लॉक डिव्हाइस माहिती यासारखी दिसेल.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
डिस्क काढून टाकल्यानंतर अॅरेची स्थिती.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
2. विभाजन सारणी नवीन डिस्कवर कॉपी करा
तुम्ही खालील आदेशासह डिस्कवरील वापरलेले विभाजन टेबल तपासू शकता.
fdisk -l /dev/sdb | grep 'Disk label type'
MBR साठी आउटपुट असेल:
Disk label type: dos
GPT साठी:
Disk label type: gpt
MBR साठी विभाजन सारणी कॉपी करणे:
sfdisk -d /dev/sdb | sfdisk /dev/sdc
या संघात प्रथम डिस्क दर्शविली आहे с कोणत्या मार्कअप कॉपी केला आहे, दुसरा - कुठे कॉपी
लक्ष: GPT साठी प्रथम डिस्क दर्शविली आहे ज्यावर मार्कअप कॉपी करा, दुसरा डिस्क डिस्क दर्शवते कोठून मार्कअप कॉपी करा. तुम्ही डिस्क मिसळल्यास, सुरुवातीला चांगले विभाजन ओव्हरराईट केले जाईल आणि नष्ट केले जाईल.
GPT साठी लेआउट टेबल कॉपी करत आहे:
sgdisk -R /dev/sdс /dev/sdb
पुढे, डिस्कला (GPT साठी) एक यादृच्छिक UUID नियुक्त करा.
sgdisk -G /dev/sdc
कमांड कार्यान्वित झाल्यानंतर, डिस्कवर विभाजने दिसली पाहिजेत /dev/sdc
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
└─sdc2 8:34 0 222,5G 0 part
sdd 8:48 0 931,5G 0 disk
जर, क्रिया केल्यानंतर, डिस्कवरील सिस्टममधील विभाजने /dev/sdc
अनिश्चित, नंतर आम्ही विभाजन सारणी पुन्हा वाचण्यासाठी कमांड कार्यान्वित करतो.
sfdisk -R /dev/sdc
जर सध्याच्या डिस्क्स MBR टेबल वापरत असतील आणि माहिती 2 TB पेक्षा मोठ्या डिस्कवर हस्तांतरित करायची असेल, तर नवीन डिस्कवर तुम्हाला बायोसबूट विभाजन वापरून GPT विभाजन व्यक्तिचलितपणे तयार करावे लागेल. या प्रकरणाची या लेखाच्या भाग 2 मध्ये चर्चा केली जाईल.
3. अॅरेमध्ये नवीन डिस्कचे विभाजन जोडणे
संबंधित अॅरेमध्ये डिस्क विभाजने जोडू.
mdadm /dev/md126 --add /dev/sdc1
mdadm /dev/md127 --add /dev/sdc2
आम्ही तपासतो की विभाग जोडले गेले आहेत.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
यानंतर, आम्ही अॅरे सिंक्रोनाइझ होण्याची प्रतीक्षा करतो.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[==>..................] recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
युटिलिटी वापरून तुम्ही सिंक्रोनाइझेशन प्रक्रियेचे सतत निरीक्षण करू शकता watch
.
watch -n 2 cat /proc/mdstat
पॅरामीटर -n
प्रगती तपासण्यासाठी कोणत्या सेकंदात कमांड कार्यान्वित करणे आवश्यक आहे ते निर्दिष्ट करते.
पुढील रिप्लेसमेंट डिस्कसाठी चरण 1 - 3 ची पुनरावृत्ती करा.
आम्ही प्रत्येक अॅरेमध्ये वापरल्या जाणार्या दुसऱ्या डिस्कचे विभाजन खराब म्हणून चिन्हांकित करतो.
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
ब्लॉक डिव्हाइस विभाजने काढून टाकत आहे /dev/sdb
अॅरे पासून.
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
आम्ही अॅरेमधून डिस्क काढून टाकल्यानंतर, ब्लॉक डिव्हाइस माहिती यासारखी दिसेल.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
डिस्क काढून टाकल्यानंतर अॅरेची स्थिती.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2]
1047552 blocks super 1.2 [2/1] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
डिस्कवरून MBR विभाजन सारणी कॉपी करणे /dev/sdс
डिस्कवर /dev/sdd
.
sfdisk -d /dev/sdс | sfdisk /dev/sdd
कमांड कार्यान्वित झाल्यानंतर, डिस्कवर विभाजने दिसली पाहिजेत /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
└─sdd2 8:50 0 222,5G 0 part
अॅरेमध्ये डिस्क विभाजने जोडणे.
mdadm /dev/md126 --add /dev/sdd1
mdadm /dev/md127 --add /dev/sdd2
आम्ही तपासतो की विभाग जोडले गेले आहेत.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
यानंतर, आम्ही अॅरे सिंक्रोनाइझ होण्याची प्रतीक्षा करतो.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd1[3] sdc1[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdd2[3] sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
5. नवीन ड्राइव्हस्वर GRUB स्थापित करणे
CentOS साठी:
grub2-install /dev/sdX
डेबियन/उबंटूसाठी:
grub-install /dev/sdX
जेथे X
- ब्लॉक उपकरणाचे पत्र. या प्रकरणात, तुम्हाला GRUB चालू करणे आवश्यक आहे /dev/sdc
и /dev/sdd
.
6. रूट विभाजनाचा फाइल सिस्टम विस्तार (ext4).
नवीन डिस्कवर /dev/sdc
и /dev/sdd
931.5 GB उपलब्ध. विभाजन सारणी लहान डिस्क्समधून कॉपी केली गेली होती या वस्तुस्थितीमुळे, विभाजने /dev/sdc2
и /dev/sdd2
222.5 GB उपलब्ध.
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
हे आवश्यक आहे:
- प्रत्येक डिस्कवर विभाजन 2 वाढवा,
- विस्तारित अरे md127,
- पीव्ही (भौतिक खंड) विस्तृत करा,
- विस्तारित LV (लॉजिकल-वॉल्यूम) vg0-root,
- फाइल सिस्टम विस्तृत करा.
उपयुक्तता वापरणे विभक्त चला विभागाचा विस्तार करूया /dev/sdc2
कमाल मूल्यापर्यंत. कमांड कार्यान्वित करा parted /dev/sdc
(1) आणि कमांडसह वर्तमान विभाजन सारणी पहा p
(2).
तुम्ही बघू शकता, विभाजन 2 चा शेवट 240 GB वर होतो. कमांडसह विभाजन विस्तृत करू resizepart
2
, जेथे 2 ही विभागाची संख्या आहे (3). आम्ही डिजिटल स्वरूपात मूल्य सूचित करतो, उदाहरणार्थ 1000 GB, किंवा डिस्क शेअरचे संकेत वापरा - 100%. आम्ही पुन्हा तपासतो की विभाजनामध्ये नवीन आकार आहे (4).
डिस्कसाठी वरील चरणांची पुनरावृत्ती करा /dev/sdd
. विभाजनांचा विस्तार केल्यानंतर /dev/sdc2
и /dev/sdd2
930.5 GB च्या बरोबरीचे झाले.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
यानंतर आम्ही अॅरे विस्तृत करतो Md127 जास्तीत जास्त.
mdadm --grow /dev/md127 --size=max
अॅरेचा विस्तार झाला आहे हे आम्ही तपासतो. आता त्याचा आकार 930.4 GB झाला आहे.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
विस्तार वाढवत आहे भौतिक खंड. विस्तार करण्यापूर्वी, पीव्हीची वर्तमान स्थिती तपासूया.
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [222,40 GiB / 0 free]
Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0 ]
जसे पाहिले जाऊ शकते, पीव्ही /dev/md127
222.4 GB जागा वापरते.
आम्ही खालील कमांडसह PV विस्तृत करतो.
pvresize /dev/md127
पीव्ही विस्ताराचा परिणाम तपासत आहे.
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [930,38 GiB / 707,98 GiB free]
Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0 ]
विस्तारत आहे तार्किक खंड. विस्तार करण्यापूर्वी, LV (1) ची वर्तमान स्थिती तपासूया.
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<206,41 GiB] inherit
LV /dev/vg0/root
206.41 GB वापरते.
आम्ही खालील आदेश (2) सह LV विस्तृत करतो.
lvextend -l +100%FREE /dev/mapper/vg0-root
आम्ही पूर्ण केलेली क्रिया तपासतो (3).
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<914,39 GiB] inherit
जसे आपण पाहू शकता, LV विस्तारित केल्यानंतर, व्यापलेल्या डिस्क जागेचे प्रमाण 914.39 GB झाले.
LV व्हॉल्यूम वाढला आहे (4), परंतु फाइल सिस्टम अजूनही 204 GB (5) व्यापते.
1. फाईल सिस्टीमचा विस्तार करूया.
resize2fs /dev/mapper/vg0-root
कमांड कार्यान्वित झाल्यानंतर, आम्ही फाइल सिस्टमचा आकार तपासतो.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,5M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 900G 1,3G 860G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
रूट फाइल सिस्टमचा आकार 900 GB पर्यंत वाढेल. चरण पूर्ण केल्यानंतर, आपण जुन्या डिस्क काढू शकता.
केस 2: लहान डिस्क मोठ्या डिस्कसह बदलणे (2TB पेक्षा जास्त)
व्यायाम: माहिती जतन करताना सध्याच्या डिस्कला मोठ्या डिस्कने (2 x 3TB) बदला. या प्रकरणात, आमच्याकडे 2 x 240 GB SSD (RAID-1) सिस्टम स्थापित केलेल्या डिस्क्स आहेत आणि 2 x 3 TB SATA डिस्क ज्यावर सिस्टम हस्तांतरित करणे आवश्यक आहे. सध्याच्या डिस्क्स MBR विभाजन सारणी वापरतात. नवीन डिस्क्सची क्षमता 2 TB पेक्षा जास्त असल्याने, त्यांना GPT टेबल वापरावे लागेल, कारण MBR 2 TB पेक्षा मोठ्या डिस्कसह कार्य करू शकत नाही.
चला वर्तमान डिस्क लेआउट पाहू.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
sdd 8:48 0 2,7T 0 disk
चला डिस्कवर वापरलेले विभाजन टेबल तपासू /dev/sda
.
[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos
डिस्कवर /dev/sdb
समान विभाजन सारणी वापरली जाते. चला सिस्टमवर वापरलेली डिस्क स्पेस तपासूया.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,5M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
जसे आपण पाहू शकता, फाइल सिस्टमचे रूट 204 जीबी घेते. चला सॉफ्टवेअर RAID अॅरेची सध्याची स्थिती तपासू.
1. GPT विभाजन सारणी आणि डिस्क विभाजन स्थापित करणे
सेक्टरनुसार डिस्क लेआउट तपासू.
[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags:
Номер Начало Конец Размер Тип Файловая система Флаги
1 1049kB 1076MB 1075MB primary загрузочный, raid
2 1076MB 240GB 239GB primary raid
नवीन 3TB डिस्कवर आम्हाला 3 विभाजने तयार करावी लागतील:
- विभाग
bios_grub
GPT BIOS सुसंगततेसाठी 2MiB आकार, - RAID अॅरेचे विभाजन जे मध्ये आरोहित केले जाईल
/boot
. - RAID अॅरेसाठी विभाजन ज्यावर असेल एलव्ही रूट и LV स्वॅप.
युटिलिटी स्थापित करत आहे विभक्त संघ yum install -y parted
(CentOS साठी), apt install -y parted
(डेबियन/उबंटूसाठी).
वापरत आहे विभक्त डिस्कचे विभाजन करण्यासाठी खालील कमांड्स चालवू.
कमांड कार्यान्वित करा parted /dev/sdc
आणि डिस्क लेआउट संपादन मोडवर जा.
GPT विभाजन सारणी तयार करा.
(parted) mktable gpt
1 विभाग तयार करा bios_grub
विभाग आणि त्यासाठी ध्वज सेट करा.
(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on
विभाजन 2 तयार करा आणि त्यासाठी ध्वज सेट करा. विभाजन RAID अॅरेसाठी ब्लॉक म्हणून वापरले जाईल आणि आरोहित केले जाईल /boot
.
(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on
आम्ही विभाजन 3 तयार करतो, ज्याचा वापर अॅरे ब्लॉक म्हणून केला जाईल ज्यामध्ये LVM स्थित असेल.
(parted) mkpart primary 1028MiB 100%
या प्रकरणात, ध्वज सेट करणे आवश्यक नाही, परंतु आवश्यक असल्यास, ते खालील आदेशाने सेट केले जाऊ शकते.
(parted) set 3 raid on
आम्ही तयार केलेले टेबल तपासतो.
(parted) p
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags:
Номер Начало Конец Размер Файловая система Имя Флаги
1 1049kB 3146kB 2097kB primary bios_grub
2 3146kB 1077MB 1074MB primary загрузочный
3 1077MB 3001GB 3000GB primary
आम्ही डिस्कला नवीन यादृच्छिक GUID नियुक्त करतो.
sgdisk -G /dev/sdd
2. अॅरेमधून पहिल्या डिस्कचे विभाजन काढून टाकणे
अॅरेची स्थिती तपासत आहे
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
प्रणाली 2 अॅरे वापरते: md126 (माउंट पॉइंट/बूट) - यांचा समावेश आहे /dev/sda1
и /dev/sdb1
, md127
(साठी LVM swap
आणि फाइल सिस्टमचे रूट) - यांचा समावेश आहे /dev/sda2
и /dev/sdb2
.
आम्ही प्रत्येक अॅरेमध्ये वापरल्या जाणार्या पहिल्या डिस्कचे विभाजन खराब म्हणून चिन्हांकित करतो.
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
ब्लॉक डिव्हाइस विभाजने काढून टाकत आहे /dev/sda
अॅरे पासून.
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
डिस्क काढून टाकल्यानंतर अॅरेची स्थिती तपासत आहे.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
3. अॅरेमध्ये नवीन डिस्कचे विभाजन जोडणे
सिंक्रोनाइझेशनसाठी अॅरेमध्ये नवीन डिस्कचे विभाजन जोडणे ही पुढील पायरी आहे. चला डिस्क लेआउटची सध्याची स्थिती पाहू.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
└─sdc3 8:35 0 2,7T 0 part
sdd 8:48 0 2,7T 0 disk
विभाग /dev/sdc1
तो आहे bios_grub
विभाग आणि अॅरेच्या निर्मितीमध्ये गुंतलेला नाही. अॅरे फक्त वापरतील /dev/sdc2
и /dev/sdc3
. आम्ही हे विभाग संबंधित अॅरेमध्ये जोडतो.
mdadm /dev/md126 --add /dev/sdc2
mdadm /dev/md127 --add /dev/sdc3
मग आपण अॅरे सिंक्रोनाइझ होण्याची प्रतीक्षा करतो.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc2[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc3[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[>....................] recovery = 0.2% (619904/233206784) finish=31.2min speed=123980K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
अॅरेमध्ये विभाजने जोडल्यानंतर डिस्क विभाजन.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
4. अॅरेमधून दुसऱ्या डिस्कचे विभाजन काढून टाकणे
आम्ही प्रत्येक अॅरेमध्ये वापरल्या जाणार्या दुसऱ्या डिस्कचे विभाजन खराब म्हणून चिन्हांकित करतो.
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
ब्लॉक डिव्हाइस विभाजने काढून टाकत आहे /dev/sda
अॅरे पासून.
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
5. GPT लेआउट टेबल कॉपी करा आणि अॅरे सिंक्रोनाइझ करा
GPT मार्कअप टेबल कॉपी करण्यासाठी आम्ही युटिलिटी वापरू sgdisk
, जे डिस्क विभाजने आणि GPT टेबलसह कार्य करण्यासाठी पॅकेजमध्ये समाविष्ट आहे - gdisk
.
सेटिंग gdisk
CentOS साठी:
yum install -y gdisk
सेटिंग gdisk
डेबियन/उबंटू साठी:
apt install -y gdisk
लक्ष: GPT साठी प्रथम डिस्क दर्शविली आहे ज्यावर मार्कअप कॉपी करा, दुसरा डिस्क डिस्क दर्शवते कोठून मार्कअप कॉपी करा. तुम्ही डिस्क्स मिसळल्यास, सुरुवातीला चांगले विभाजन ओव्हरराईट केले जाईल आणि नष्ट केले जाईल.
GPT मार्कअप टेबल कॉपी करा.
sgdisk -R /dev/sdd /dev/sdc
डिस्कवर टेबल हस्तांतरित केल्यानंतर डिस्क विभाजन /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
└─sdd3 8:51 0 2,7T 0 part
पुढे, आम्ही सॉफ्टवेअर RAID अॅरेमध्ये सहभागी होणारे प्रत्येक विभाजन जोडतो.
mdadm /dev/md126 --add /dev/sdd2
mdadm /dev/md127 --add /dev/sdd3
आम्ही अॅरे सिंक्रोनाइझ होण्याची वाट पाहत आहोत.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd2[3] sdc2[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 1/1 pages [4KB], 65536KB chunk
md127 : active raid1 sdd3[3] sdc3[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.0% (148224/233206784) finish=26.2min speed=148224K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
GPT विभाजन दुसऱ्या नवीन डिस्कवर कॉपी केल्यानंतर, विभाजन असे दिसेल.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
पुढे, नवीन डिस्कवर GRUB स्थापित करा.
CentOS साठी स्थापना:
grub2-install /dev/sdX
डेबियन/उबंटूसाठी स्थापना:
grub-install /dev/sdX
जेथे X
- ड्राइव्ह लेटर, आमच्या बाबतीत ड्राइव्हस् /dev/sdc
и /dev/sdd
.
आम्ही अॅरेबद्दल माहिती अपडेट करतो.
CentOS साठी:
mdadm --detail --scan --verbose > /etc/mdadm.conf
डेबियन/उबंटूसाठी:
echo "DEVICE partitions" > /etc/mdadm/mdadm.conf
mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf
प्रतिमा अद्यतनित करत आहे initrd
:
CentOS साठी:
dracut -f -v --regenerate-all
डेबियन/उबंटूसाठी:
update-initramfs -u -k all
आम्ही GRUB कॉन्फिगरेशन अपडेट करतो.
CentOS साठी:
grub2-mkconfig -o /boot/grub2/grub.cfg
डेबियन/उबंटूसाठी:
update-grub
चरण पूर्ण केल्यानंतर, जुन्या डिस्क काढल्या जाऊ शकतात.
6. रूट विभाजनाचा फाइल सिस्टम विस्तार (ext4).
प्रणाली 2 x 3TB डिस्क्स (RAID-1) वर स्थलांतरित केल्यानंतर फाइल प्रणाली विस्तारापूर्वी डिस्क विभाजन.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
आता विभाग /dev/sdc3
и /dev/sdd3
2.7 टीबी व्यापते. आम्ही GPT टेबलसह नवीन डिस्क लेआउट तयार केल्यामुळे, विभाजन 3 चा आकार ताबडतोब जास्तीत जास्त संभाव्य डिस्क जागेवर सेट केला गेला; या प्रकरणात, विभाजन विस्तृत करण्याची आवश्यकता नाही.
हे आवश्यक आहे:
- विस्तारित अरे md126,
- पीव्ही (भौतिक खंड) विस्तृत करा,
- विस्तारित LV (लॉजिकल-वॉल्यूम) vg0-root,
- फाइल सिस्टम विस्तृत करा.
1. अॅरे विस्तृत करा md126
जास्तीत जास्त.
mdadm --grow /dev/md126 --size=max
अॅरे विस्तारानंतर md126
व्यापलेल्या जागेचा आकार 2.7 TB इतका वाढला आहे.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
विस्तारत आहे भौतिक खंड.
विस्तार करण्यापूर्वी, व्यापलेल्या जागेचे वर्तमान मूल्य तपासा PV /dev/md126
.
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- 222,40g 0
आम्ही खालील कमांडसह PV विस्तृत करतो.
pvresize /dev/md126
आम्ही पूर्ण केलेली क्रिया तपासतो.
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- <2,73t 2,51t
विस्तारत आहे लॉजिकल व्हॉल्यूम vg0-root.
PV चा विस्तार केल्यानंतर, व्यापलेली जागा VG तपासूया.
[root@localhost ~]# vgs
VG #PV #LV #SN Attr VSize VFree
vg0 1 2 0 wz--n- <2,73t 2,51t
LV ने व्यापलेली जागा तपासूया.
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- <206,41g
swap vg0 -wi-ao---- <16,00g
vg0-रूट व्हॉल्यूम 206.41 GB व्यापते.
आम्ही जास्तीत जास्त डिस्क स्पेसमध्ये एलव्हीचा विस्तार करतो.
lvextend -l +100%FREE /dev/mapper/vg0-root
विस्तारानंतर LV जागा तपासत आहे.
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- 2,71t
swap vg0 -wi-ao---- <16,00g
फाइल प्रणालीचा विस्तार करत आहे (ext4).
चला फाइल सिस्टमचा वर्तमान आकार तपासू.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,4G 192G 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
LV विस्तारानंतर व्हॉल्यूम /dev/mapper/vg0-root 204 GB व्यापते.
फाइल सिस्टमचा विस्तार करत आहे.
resize2fs /dev/mapper/vg0-root
फाइल सिस्टमचा विस्तार केल्यानंतर त्याचा आकार तपासत आहे.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 2,7T 1,4G 2,6T 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
संपूर्ण व्हॉल्यूम कव्हर करण्यासाठी फाइल सिस्टम आकार वाढविला गेला आहे.
स्त्रोत: www.habr.com