Linux मध्ये मोठ्या डिस्कसह लहान डिस्क बदलणे

सर्वांना नमस्कार. नवीन अभ्यासक्रम गट सुरू होण्याच्या पूर्वसंध्येला "लिनक्स प्रशासक" आम्ही आमच्या विद्यार्थ्याने लिहिलेले उपयुक्त साहित्य, तसेच कोर्स मेंटॉर, REG.RU कॉर्पोरेट उत्पादनांसाठी तांत्रिक सहाय्य विशेषज्ञ - रोमन ट्रेविन प्रकाशित करत आहोत.

हा लेख अ‍ॅरे आणि फाइल सिस्टमच्या पुढील विस्तारासह डिस्क बदलण्याच्या आणि मोठ्या क्षमतेच्या नवीन डिस्कवर माहिती हस्तांतरित करण्याच्या 2 प्रकरणांचा विचार करेल. पहिले प्रकरण समान MBR/MBR किंवा GPT/GPT विभाजनासह डिस्कच्या पुनर्स्थापनेशी संबंधित आहे, दुसरे प्रकरण 2 TB पेक्षा जास्त क्षमतेच्या डिस्कसह MBR विभाजनासह डिस्कच्या पुनर्स्थापनेशी संबंधित आहे, ज्यावर तुम्हाला स्थापित करणे आवश्यक आहे. बायोसबूट विभाजनासह GPT विभाजन. दोन्ही प्रकरणांमध्ये, आम्ही ज्या डिस्कवर डेटा हस्तांतरित करतो त्या आधीपासून सर्व्हरवर स्थापित केल्या आहेत. रूट विभाजनासाठी वापरलेली फाइल प्रणाली ext4 आहे.

केस 1: लहान डिस्क मोठ्या डिस्कसह बदलणे (2TB पर्यंत)

एक कार्य: सध्याच्या डिस्कला माहिती हस्तांतरणासह मोठ्या डिस्कसह (2 TB पर्यंत) बदला. या प्रकरणात, आमच्याकडे 2 x 240 GB SSD (RAID-1) सिस्टम स्थापित केलेल्या डिस्क्स आहेत आणि 2 x 1 TB SATA डिस्क ज्यावर सिस्टम हस्तांतरित करणे आवश्यक आहे.

चला वर्तमान डिस्क लेआउट पाहू.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sda2           8:2    0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
sdd              8:48   0 931,5G  0 disk  

सध्या वापरलेली फाइल सिस्टम स्पेस तपासूया.

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                32G            0   32G            0% /dev
tmpfs                   32G            0   32G            0% /dev/shm
tmpfs                   32G         9,6M   32G            1% /run
tmpfs                   32G            0   32G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,3G  192G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  6,3G            0  6,3G            0% /run/user/0

डिस्क बदलण्यापूर्वी फाइल सिस्टमचा आकार 204 GB आहे, 2 md126 सॉफ्टवेअर अॅरे वापरल्या जातात, ज्यामध्ये माउंट केले जाते. /boot и md127, जे म्हणून वापरले जाते भौतिक खंड VG गटासाठी vg0.

1. अॅरेमधून डिस्क विभाजने काढून टाकणे

अॅरेची स्थिती तपासत आहे

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda2[0] sdb2[1]
      233206784 blocks super 1.2 [2/2] [UU]
      bitmap: 0/2 pages [0KB], 65536KB chunk

unused devices: <none>

सिस्टम 2 अॅरे वापरते: md126 (माउंट पॉइंट /boot) - एक विभाग समाविष्टीत आहे /dev/sda1 и /dev/sdb1, md127 (साठी LVM स्वॅप आणि फाइल सिस्टमचे रूट) - यांचा समावेश आहे /dev/sda2 и /dev/sdb2.

आम्ही प्रत्येक अॅरेमध्ये वापरल्या जाणार्‍या पहिल्या डिस्कचे विभाजन खराब म्हणून चिन्हांकित करतो.

mdadm /dev/md126 --fail /dev/sda1

mdadm /dev/md127 --fail /dev/sda2

आम्ही अॅरेमधून /dev/sda ब्लॉक डिव्हाइस विभाजने काढून टाकतो.

mdadm /dev/md126 --remove /dev/sda1

mdadm /dev/md127 --remove /dev/sda2

आम्ही अॅरेमधून डिस्क काढून टाकल्यानंतर, ब्लॉक डिव्हाइस माहिती यासारखी दिसेल.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
sdd              8:48   0 931,5G  0 disk  

डिस्क काढून टाकल्यानंतर अॅरेची स्थिती.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdb1[1]
      1047552 blocks super 1.2 [2/1] [_U]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

2. विभाजन सारणी नवीन डिस्कवर कॉपी करा

तुम्ही खालील आदेशासह डिस्कवरील वापरलेले विभाजन टेबल तपासू शकता.

fdisk -l /dev/sdb | grep 'Disk label type'

MBR साठी आउटपुट असेल:

Disk label type: dos

GPT साठी:

Disk label type: gpt

MBR साठी विभाजन सारणी कॉपी करणे:

sfdisk -d /dev/sdb | sfdisk /dev/sdc

या संघात प्रथम डिस्क दर्शविली आहे с कोणत्या मार्कअप कॉपी केला आहे, दुसरा - कुठे कॉपी

लक्ष: GPT साठी प्रथम डिस्क दर्शविली आहे ज्यावर मार्कअप कॉपी करा, दुसरा डिस्क डिस्क दर्शवते कोठून मार्कअप कॉपी करा. तुम्ही डिस्क मिसळल्यास, सुरुवातीला चांगले विभाजन ओव्हरराईट केले जाईल आणि नष्ट केले जाईल.

GPT साठी लेआउट टेबल कॉपी करत आहे:

sgdisk -R /dev/sdс /dev/sdb

पुढे, डिस्कला (GPT साठी) एक यादृच्छिक UUID नियुक्त करा.


sgdisk -G /dev/sdc

कमांड कार्यान्वित झाल्यानंतर, डिस्कवर विभाजने दिसली पाहिजेत /dev/sdc.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
└─sdc2           8:34   0 222,5G  0 part  
sdd              8:48   0 931,5G  0 disk  

जर, क्रिया केल्यानंतर, डिस्कवरील सिस्टममधील विभाजने /dev/sdc अनिश्चित, नंतर आम्ही विभाजन सारणी पुन्हा वाचण्यासाठी कमांड कार्यान्वित करतो.

sfdisk -R /dev/sdc

जर सध्याच्या डिस्क्स MBR टेबल वापरत असतील आणि माहिती 2 TB पेक्षा मोठ्या डिस्कवर हस्तांतरित करायची असेल, तर नवीन डिस्कवर तुम्हाला बायोसबूट विभाजन वापरून GPT विभाजन व्यक्तिचलितपणे तयार करावे लागेल. या प्रकरणाची या लेखाच्या भाग 2 मध्ये चर्चा केली जाईल.

3. अॅरेमध्ये नवीन डिस्कचे विभाजन जोडणे

संबंधित अॅरेमध्ये डिस्क विभाजने जोडू.

mdadm /dev/md126 --add /dev/sdc1

mdadm /dev/md127 --add /dev/sdc2

आम्ही तपासतो की विभाग जोडले गेले आहेत.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  

यानंतर, आम्ही अॅरे सिंक्रोनाइझ होण्याची प्रतीक्षा करतो.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc1[2] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc2[2] sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      [==>..................]  recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

युटिलिटी वापरून तुम्ही सिंक्रोनाइझेशन प्रक्रियेचे सतत निरीक्षण करू शकता watch.

watch -n 2 cat /proc/mdstat

पॅरामीटर -n प्रगती तपासण्यासाठी कोणत्या सेकंदात कमांड कार्यान्वित करणे आवश्यक आहे ते निर्दिष्ट करते.

पुढील रिप्लेसमेंट डिस्कसाठी चरण 1 - 3 ची पुनरावृत्ती करा.

आम्ही प्रत्येक अॅरेमध्ये वापरल्या जाणार्‍या दुसऱ्या डिस्कचे विभाजन खराब म्हणून चिन्हांकित करतो.

mdadm /dev/md126 --fail /dev/sdb1

mdadm /dev/md127 --fail /dev/sdb2

ब्लॉक डिव्हाइस विभाजने काढून टाकत आहे /dev/sdb अॅरे पासून.

mdadm /dev/md126 --remove /dev/sdb1

mdadm /dev/md127 --remove /dev/sdb2

आम्ही अॅरेमधून डिस्क काढून टाकल्यानंतर, ब्लॉक डिव्हाइस माहिती यासारखी दिसेल.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  

डिस्क काढून टाकल्यानंतर अॅरेची स्थिती.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc1[2]
      1047552 blocks super 1.2 [2/1] [U_]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc2[2]
      233206784 blocks super 1.2 [2/1] [U_]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

डिस्कवरून MBR विभाजन सारणी कॉपी करणे /dev/sdс डिस्कवर /dev/sdd.

sfdisk -d /dev/sdс | sfdisk /dev/sdd

कमांड कार्यान्वित झाल्यानंतर, डिस्कवर विभाजने दिसली पाहिजेत /dev/sdd.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
└─sdd2           8:50   0 222,5G  0 part  

अॅरेमध्ये डिस्क विभाजने जोडणे.

mdadm /dev/md126 --add /dev/sdd1

mdadm /dev/md127 --add /dev/sdd2

आम्ही तपासतो की विभाग जोडले गेले आहेत.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

यानंतर, आम्ही अॅरे सिंक्रोनाइझ होण्याची प्रतीक्षा करतो.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdd1[3] sdc1[2]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdd2[3] sdc2[2]
      233206784 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

5. नवीन ड्राइव्हस्वर GRUB स्थापित करणे

CentOS साठी:

grub2-install /dev/sdX

डेबियन/उबंटूसाठी:

grub-install /dev/sdX

जेथे X - ब्लॉक उपकरणाचे पत्र. या प्रकरणात, तुम्हाला GRUB चालू करणे आवश्यक आहे /dev/sdc и /dev/sdd.

6. रूट विभाजनाचा फाइल सिस्टम विस्तार (ext4).

नवीन डिस्कवर /dev/sdc и /dev/sdd 931.5 GB उपलब्ध. विभाजन सारणी लहान डिस्क्समधून कॉपी केली गेली होती या वस्तुस्थितीमुळे, विभाजने /dev/sdc2 и /dev/sdd2 222.5 GB उपलब्ध.

sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

हे आवश्यक आहे:

  1. प्रत्येक डिस्कवर विभाजन 2 वाढवा,
  2. विस्तारित अरे md127,
  3. पीव्ही (भौतिक खंड) विस्तृत करा,
  4. विस्तारित LV (लॉजिकल-वॉल्यूम) vg0-root,
  5. फाइल सिस्टम विस्तृत करा.

उपयुक्तता वापरणे विभक्त चला विभागाचा विस्तार करूया /dev/sdc2 कमाल मूल्यापर्यंत. कमांड कार्यान्वित करा parted /dev/sdc (1) आणि कमांडसह वर्तमान विभाजन सारणी पहा p (2).

Linux मध्ये मोठ्या डिस्कसह लहान डिस्क बदलणे

तुम्ही बघू शकता, विभाजन 2 चा शेवट 240 GB वर होतो. कमांडसह विभाजन विस्तृत करू resizepart 2, जेथे 2 ही विभागाची संख्या आहे (3). आम्ही डिजिटल स्वरूपात मूल्य सूचित करतो, उदाहरणार्थ 1000 GB, किंवा डिस्क शेअरचे संकेत वापरा - 100%. आम्ही पुन्हा तपासतो की विभाजनामध्ये नवीन आकार आहे (4).

डिस्कसाठी वरील चरणांची पुनरावृत्ती करा /dev/sdd. विभाजनांचा विस्तार केल्यानंतर /dev/sdc2 и /dev/sdd2 930.5 GB च्या बरोबरीचे झाले.

[root@localhost ~]# lsblk                                                 
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 930,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 930,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

यानंतर आम्ही अॅरे विस्तृत करतो Md127 जास्तीत जास्त.

mdadm --grow /dev/md127 --size=max

अॅरेचा विस्तार झाला आहे हे आम्ही तपासतो. आता त्याचा आकार 930.4 GB झाला आहे.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 930,5G  0 part  
  └─md127        9:127  0 930,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 930,5G  0 part  
  └─md127        9:127  0 930,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

विस्तार वाढवत आहे भौतिक खंड. विस्तार करण्यापूर्वी, पीव्हीची वर्तमान स्थिती तपासूया.

[root@localhost ~]# pvscan
  PV /dev/md127   VG vg0             lvm2 [222,40 GiB / 0    free]
  Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0   ]

जसे पाहिले जाऊ शकते, पीव्ही /dev/md127 222.4 GB जागा वापरते.

आम्ही खालील कमांडसह PV विस्तृत करतो.

pvresize /dev/md127

पीव्ही विस्ताराचा परिणाम तपासत आहे.

[

root@localhost ~]# pvscan
  PV /dev/md127   VG vg0             lvm2 [930,38 GiB / 707,98 GiB free]
  Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0   ]

विस्तारत आहे तार्किक खंड. विस्तार करण्यापूर्वी, LV (1) ची वर्तमान स्थिती तपासूया.

[root@localhost ~]# lvscan
  ACTIVE            '/dev/vg0/swap' [<16,00 GiB] inherit
  ACTIVE            '/dev/vg0/root' [<206,41 GiB] inherit

LV /dev/vg0/root 206.41 GB वापरते.

आम्ही खालील आदेश (2) सह LV विस्तृत करतो.

lvextend -l +100%FREE /dev/mapper/vg0-root

आम्ही पूर्ण केलेली क्रिया तपासतो (3).

[root@localhost ~]# lvscan 
  ACTIVE            '/dev/vg0/swap' [<16,00 GiB] inherit
  ACTIVE            '/dev/vg0/root' [<914,39 GiB] inherit

जसे आपण पाहू शकता, LV विस्तारित केल्यानंतर, व्यापलेल्या डिस्क जागेचे प्रमाण 914.39 GB झाले.

Linux मध्ये मोठ्या डिस्कसह लहान डिस्क बदलणे

LV व्हॉल्यूम वाढला आहे (4), परंतु फाइल सिस्टम अजूनही 204 GB (5) व्यापते.

1. फाईल सिस्टीमचा विस्तार करूया.

resize2fs /dev/mapper/vg0-root

कमांड कार्यान्वित झाल्यानंतर, आम्ही फाइल सिस्टमचा आकार तपासतो.

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                32G            0   32G            0% /dev
tmpfs                   32G            0   32G            0% /dev/shm
tmpfs                   32G         9,5M   32G            1% /run
tmpfs                   32G            0   32G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   900G         1,3G  860G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  6,3G            0  6,3G            0% /run/user/0

रूट फाइल सिस्टमचा आकार 900 GB पर्यंत वाढेल. चरण पूर्ण केल्यानंतर, आपण जुन्या डिस्क काढू शकता.

केस 2: लहान डिस्क मोठ्या डिस्कसह बदलणे (2TB पेक्षा जास्त)

व्यायाम: माहिती जतन करताना सध्याच्या डिस्कला मोठ्या डिस्कने (2 x 3TB) बदला. या प्रकरणात, आमच्याकडे 2 x 240 GB SSD (RAID-1) सिस्टम स्थापित केलेल्या डिस्क्स आहेत आणि 2 x 3 TB SATA डिस्क ज्यावर सिस्टम हस्तांतरित करणे आवश्यक आहे. सध्याच्या डिस्क्स MBR विभाजन सारणी वापरतात. नवीन डिस्क्सची क्षमता 2 TB पेक्षा जास्त असल्याने, त्यांना GPT टेबल वापरावे लागेल, कारण MBR 2 TB पेक्षा मोठ्या डिस्कसह कार्य करू शकत नाही.

चला वर्तमान डिस्क लेआउट पाहू.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sda2           8:2    0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
sdd              8:48   0   2,7T  0 disk  

चला डिस्कवर वापरलेले विभाजन टेबल तपासू /dev/sda.

[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos

डिस्कवर /dev/sdb समान विभाजन सारणी वापरली जाते. चला सिस्टमवर वापरलेली डिस्क स्पेस तपासूया.

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,5M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,3G  192G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

जसे आपण पाहू शकता, फाइल सिस्टमचे रूट 204 जीबी घेते. चला सॉफ्टवेअर RAID अॅरेची सध्याची स्थिती तपासू.

1. GPT विभाजन सारणी आणि डिस्क विभाजन स्थापित करणे

सेक्टरनुसार डिस्क लेआउट तपासू.

[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags: 

Номер  Начало  Конец   Размер  Тип      Файловая система  Флаги
 1     1049kB  1076MB  1075MB  primary                    загрузочный, raid
 2     1076MB  240GB   239GB   primary                    raid

नवीन 3TB डिस्कवर आम्हाला 3 विभाजने तयार करावी लागतील:

  1. विभाग bios_grub GPT BIOS सुसंगततेसाठी 2MiB आकार,
  2. RAID अॅरेचे विभाजन जे मध्ये आरोहित केले जाईल /boot.
  3. RAID अॅरेसाठी विभाजन ज्यावर असेल एलव्ही रूट и LV स्वॅप.

युटिलिटी स्थापित करत आहे विभक्त संघ yum install -y parted (CentOS साठी), apt install -y parted (डेबियन/उबंटूसाठी).

वापरत आहे विभक्त डिस्कचे विभाजन करण्यासाठी खालील कमांड्स चालवू.

कमांड कार्यान्वित करा parted /dev/sdc आणि डिस्क लेआउट संपादन मोडवर जा.

GPT विभाजन सारणी तयार करा.

(parted) mktable gpt

1 विभाग तयार करा bios_grub विभाग आणि त्यासाठी ध्वज सेट करा.

(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on  

विभाजन 2 तयार करा आणि त्यासाठी ध्वज सेट करा. विभाजन RAID अॅरेसाठी ब्लॉक म्हणून वापरले जाईल आणि आरोहित केले जाईल /boot.

(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on

आम्ही विभाजन 3 तयार करतो, ज्याचा वापर अॅरे ब्लॉक म्हणून केला जाईल ज्यामध्ये LVM स्थित असेल.

(parted) mkpart primary 1028MiB 100% 

या प्रकरणात, ध्वज सेट करणे आवश्यक नाही, परंतु आवश्यक असल्यास, ते खालील आदेशाने सेट केले जाऊ शकते.

(parted) set 3 raid on

आम्ही तयार केलेले टेबल तपासतो.

(parted) p                                                                
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags: 

Номер  Начало  Конец   Размер  Файловая система  Имя      Флаги
 1     1049kB  3146kB  2097kB                    primary  bios_grub
 2     3146kB  1077MB  1074MB                    primary  загрузочный
 3     1077MB  3001GB  3000GB                    primary

आम्ही डिस्कला नवीन यादृच्छिक GUID नियुक्त करतो.

sgdisk -G /dev/sdd

2. अॅरेमधून पहिल्या डिस्कचे विभाजन काढून टाकणे

अॅरेची स्थिती तपासत आहे

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda2[0] sdb2[1]
      233206784 blocks super 1.2 [2/2] [UU]
      bitmap: 0/2 pages [0KB], 65536KB chunk

unused devices: <none>

प्रणाली 2 अॅरे वापरते: md126 (माउंट पॉइंट/बूट) - यांचा समावेश आहे /dev/sda1 и /dev/sdb1, md127 (साठी LVM swap आणि फाइल सिस्टमचे रूट) - यांचा समावेश आहे /dev/sda2 и /dev/sdb2.

आम्ही प्रत्येक अॅरेमध्ये वापरल्या जाणार्‍या पहिल्या डिस्कचे विभाजन खराब म्हणून चिन्हांकित करतो.

mdadm /dev/md126 --fail /dev/sda1

mdadm /dev/md127 --fail /dev/sda2

ब्लॉक डिव्हाइस विभाजने काढून टाकत आहे /dev/sda अॅरे पासून.

mdadm /dev/md126 --remove /dev/sda1

mdadm /dev/md127 --remove /dev/sda2

डिस्क काढून टाकल्यानंतर अॅरेची स्थिती तपासत आहे.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdb1[1]
      1047552 blocks super 1.2 [2/1] [_U]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

3. अॅरेमध्ये नवीन डिस्कचे विभाजन जोडणे

सिंक्रोनाइझेशनसाठी अॅरेमध्ये नवीन डिस्कचे विभाजन जोडणे ही पुढील पायरी आहे. चला डिस्क लेआउटची सध्याची स्थिती पाहू.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
└─sdc3           8:35   0   2,7T  0 part  
sdd              8:48   0   2,7T  0 disk  

विभाग /dev/sdc1 तो आहे bios_grub विभाग आणि अॅरेच्या निर्मितीमध्ये गुंतलेला नाही. अॅरे फक्त वापरतील /dev/sdc2 и /dev/sdc3. आम्ही हे विभाग संबंधित अॅरेमध्ये जोडतो.

mdadm /dev/md126 --add /dev/sdc2

mdadm /dev/md127 --add /dev/sdc3

मग आपण अॅरे सिंक्रोनाइझ होण्याची प्रतीक्षा करतो.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc2[2] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc3[2] sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      [>....................]  recovery =  0.2% (619904/233206784) finish=31.2min speed=123980K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>

अॅरेमध्ये विभाजने जोडल्यानंतर डिस्क विभाजन.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  

4. अॅरेमधून दुसऱ्या डिस्कचे विभाजन काढून टाकणे

आम्ही प्रत्येक अॅरेमध्ये वापरल्या जाणार्‍या दुसऱ्या डिस्कचे विभाजन खराब म्हणून चिन्हांकित करतो.

mdadm /dev/md126 --fail /dev/sdb1

mdadm /dev/md127 --fail /dev/sdb2

ब्लॉक डिव्हाइस विभाजने काढून टाकत आहे /dev/sda अॅरे पासून.

mdadm /dev/md126 --remove /dev/sdb1

mdadm /dev/md127 --remove /dev/sdb2

5. GPT लेआउट टेबल कॉपी करा आणि अॅरे सिंक्रोनाइझ करा

GPT मार्कअप टेबल कॉपी करण्यासाठी आम्ही युटिलिटी वापरू sgdisk, जे डिस्क विभाजने आणि GPT टेबलसह कार्य करण्यासाठी पॅकेजमध्ये समाविष्ट आहे - gdisk.

सेटिंग gdisk CentOS साठी:

yum install -y gdisk

सेटिंग gdisk डेबियन/उबंटू साठी:

apt install -y gdisk

लक्ष: GPT साठी प्रथम डिस्क दर्शविली आहे ज्यावर मार्कअप कॉपी करा, दुसरा डिस्क डिस्क दर्शवते कोठून मार्कअप कॉपी करा. तुम्ही डिस्क्स मिसळल्यास, सुरुवातीला चांगले विभाजन ओव्हरराईट केले जाईल आणि नष्ट केले जाईल.

GPT मार्कअप टेबल कॉपी करा.

sgdisk -R /dev/sdd /dev/sdc

डिस्कवर टेबल हस्तांतरित केल्यानंतर डिस्क विभाजन /dev/sdd.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
└─sdd3           8:51   0   2,7T  0 part  

पुढे, आम्ही सॉफ्टवेअर RAID अॅरेमध्ये सहभागी होणारे प्रत्येक विभाजन जोडतो.

mdadm /dev/md126 --add /dev/sdd2

mdadm /dev/md127 --add /dev/sdd3

आम्ही अॅरे सिंक्रोनाइझ होण्याची वाट पाहत आहोत.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdd2[3] sdc2[2]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md127 : active raid1 sdd3[3] sdc3[2]
      233206784 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.0% (148224/233206784) finish=26.2min speed=148224K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>

GPT विभाजन दुसऱ्या नवीन डिस्कवर कॉपी केल्यानंतर, विभाजन असे दिसेल.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

पुढे, नवीन डिस्कवर GRUB स्थापित करा.

CentOS साठी स्थापना:

grub2-install /dev/sdX

डेबियन/उबंटूसाठी स्थापना:

grub-install /dev/sdX

जेथे X - ड्राइव्ह लेटर, आमच्या बाबतीत ड्राइव्हस् /dev/sdc и /dev/sdd.

आम्ही अॅरेबद्दल माहिती अपडेट करतो.

CentOS साठी:

mdadm --detail --scan --verbose > /etc/mdadm.conf

डेबियन/उबंटूसाठी:

echo "DEVICE partitions" > /etc/mdadm/mdadm.conf

mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf

प्रतिमा अद्यतनित करत आहे initrd:
CentOS साठी:

dracut -f -v --regenerate-all

डेबियन/उबंटूसाठी:

update-initramfs -u -k all

आम्ही GRUB कॉन्फिगरेशन अपडेट करतो.

CentOS साठी:

grub2-mkconfig -o /boot/grub2/grub.cfg

डेबियन/उबंटूसाठी:

update-grub

चरण पूर्ण केल्यानंतर, जुन्या डिस्क काढल्या जाऊ शकतात.

6. रूट विभाजनाचा फाइल सिस्टम विस्तार (ext4).

प्रणाली 2 x 3TB डिस्क्स (RAID-1) वर स्थलांतरित केल्यानंतर फाइल प्रणाली विस्तारापूर्वी डिस्क विभाजन.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
sdb              8:16   0 223,6G  0 disk  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md126        9:126  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md126        9:126  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

आता विभाग /dev/sdc3 и /dev/sdd3 2.7 टीबी व्यापते. आम्ही GPT टेबलसह नवीन डिस्क लेआउट तयार केल्यामुळे, विभाजन 3 चा आकार ताबडतोब जास्तीत जास्त संभाव्य डिस्क जागेवर सेट केला गेला; या प्रकरणात, विभाजन विस्तृत करण्याची आवश्यकता नाही.

हे आवश्यक आहे:

  1. विस्तारित अरे md126,
  2. पीव्ही (भौतिक खंड) विस्तृत करा,
  3. विस्तारित LV (लॉजिकल-वॉल्यूम) vg0-root,
  4. फाइल सिस्टम विस्तृत करा.

1. अॅरे विस्तृत करा md126 जास्तीत जास्त.

mdadm --grow /dev/md126 --size=max

अॅरे विस्तारानंतर md126 व्यापलेल्या जागेचा आकार 2.7 TB इतका वाढला आहे.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
sdb              8:16   0 223,6G  0 disk  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md126        9:126  0   2,7T  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md126        9:126  0   2,7T  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

विस्तारत आहे भौतिक खंड.

विस्तार करण्यापूर्वी, व्यापलेल्या जागेचे वर्तमान मूल्य तपासा PV /dev/md126.

[root@localhost ~]# pvs
  PV         VG  Fmt  Attr PSize   PFree
  /dev/md126 vg0 lvm2 a--  222,40g    0 

आम्ही खालील कमांडसह PV विस्तृत करतो.

pvresize /dev/md126

आम्ही पूर्ण केलेली क्रिया तपासतो.

[root@localhost ~]# pvs
  PV         VG  Fmt  Attr PSize  PFree
  /dev/md126 vg0 lvm2 a--  <2,73t 2,51t

विस्तारत आहे लॉजिकल व्हॉल्यूम vg0-root.

PV चा विस्तार केल्यानंतर, व्यापलेली जागा VG तपासूया.

[root@localhost ~]# vgs
  VG  #PV #LV #SN Attr   VSize  VFree
  vg0   1   2   0 wz--n- <2,73t 2,51t

LV ने व्यापलेली जागा तपासूया.

[root@localhost ~]# lvs
  LV   VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root vg0 -wi-ao---- <206,41g                                                    
  swap vg0 -wi-ao----  <16,00g            

vg0-रूट व्हॉल्यूम 206.41 GB व्यापते.

आम्ही जास्तीत जास्त डिस्क स्पेसमध्ये एलव्हीचा विस्तार करतो.

lvextend -l +100%FREE /dev/mapper/vg0-root 

विस्तारानंतर LV जागा तपासत आहे.

[root@localhost ~]# lvs
  LV   VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root vg0 -wi-ao----   2,71t                                                    
  swap vg0 -wi-ao---- <16,00g

फाइल प्रणालीचा विस्तार करत आहे (ext4).

चला फाइल सिस्टमचा वर्तमान आकार तपासू.

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,6M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,4G  192G            1% /
/dev/md127            1007M         141M  816M           15% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

LV विस्तारानंतर व्हॉल्यूम /dev/mapper/vg0-root 204 GB व्यापते.

फाइल सिस्टमचा विस्तार करत आहे.

resize2fs /dev/mapper/vg0-root 

फाइल सिस्टमचा विस्तार केल्यानंतर त्याचा आकार तपासत आहे.

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,6M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   2,7T         1,4G  2,6T            1% /
/dev/md127            1007M         141M  816M           15% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

संपूर्ण व्हॉल्यूम कव्हर करण्यासाठी फाइल सिस्टम आकार वाढविला गेला आहे.

स्त्रोत: www.habr.com

एक टिप्पणी जोडा