लिनक्स में छोटी डिस्क को बड़ी डिस्क से बदलना

नमस्ते। एक नए पाठ्यक्रम समूह की शुरुआत की पूर्व संध्या पर "लिनक्स प्रशासक" हम अपने छात्र, साथ ही पाठ्यक्रम संरक्षक, REG.RU कॉर्पोरेट उत्पादों के लिए तकनीकी सहायता विशेषज्ञ - रोमन ट्रैविन द्वारा लिखित उपयोगी सामग्री प्रकाशित कर रहे हैं।

यह आलेख डिस्क को बदलने और सरणी और फ़ाइल सिस्टम के आगे विस्तार के साथ बड़ी क्षमता की नई डिस्क में जानकारी स्थानांतरित करने के 2 मामलों पर विचार करेगा। पहला मामला समान एमबीआर/एमबीआर या जीपीटी/जीपीटी विभाजन के साथ डिस्क के प्रतिस्थापन से संबंधित होगा, दूसरा मामला 2 टीबी से अधिक क्षमता वाले डिस्क के साथ एमबीआर विभाजन के साथ डिस्क के प्रतिस्थापन से संबंधित है, जिस पर आपको इंस्टॉल करने की आवश्यकता होगी बायोबूट विभाजन के साथ एक GPT विभाजन। दोनों ही मामलों में, जिन डिस्क पर हम डेटा स्थानांतरित करते हैं वे पहले से ही सर्वर पर स्थापित हैं। रूट विभाजन के लिए प्रयुक्त फ़ाइल सिस्टम ext4 है।

केस 1: छोटी डिस्क को बड़ी डिस्क से बदलना (2टीबी तक)

उद्देश्य: सूचना हस्तांतरण के साथ वर्तमान डिस्क को बड़ी डिस्क (2 टीबी तक) से बदलें। इस मामले में, हमारे पास स्थापित सिस्टम के साथ 2 x 240 जीबी SSD (RAID-1) डिस्क और 2 x 1 TB SATA डिस्क हैं जिनमें सिस्टम को स्थानांतरित करने की आवश्यकता है।

आइए वर्तमान डिस्क लेआउट पर नजर डालें।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sda2           8:2    0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
sdd              8:48   0 931,5G  0 disk  

आइए वर्तमान में उपयोग किए गए फ़ाइल सिस्टम स्थान की जाँच करें।

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                32G            0   32G            0% /dev
tmpfs                   32G            0   32G            0% /dev/shm
tmpfs                   32G         9,6M   32G            1% /run
tmpfs                   32G            0   32G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,3G  192G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  6,3G            0  6,3G            0% /run/user/0

डिस्क को बदलने से पहले फ़ाइल सिस्टम का आकार 204 जीबी है, 2 एमडी 126 सॉफ़्टवेयर एरे का उपयोग किया जाता है, जो इसमें माउंट किया गया है /boot и md127, जिसका उपयोग इस प्रकार किया जाता है भौतिक मात्रा वीजी समूह के लिए vg0.

1. सरणियों से डिस्क विभाजन हटाना

सरणी की स्थिति की जाँच करना

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda2[0] sdb2[1]
      233206784 blocks super 1.2 [2/2] [UU]
      bitmap: 0/2 pages [0KB], 65536KB chunk

unused devices: <none>

सिस्टम 2 सरणियों का उपयोग करता है: md126 (माउंट पॉइंट /boot) - एक अनुभाग से मिलकर बनता है /dev/sda1 и /dev/sdb1, md127 (एलवीएम के लिए विनिमय और फ़ाइल सिस्टम की जड़) - से मिलकर बनता है /dev/sda2 и /dev/sdb2.

हम प्रत्येक ऐरे में उपयोग किए जाने वाले पहले डिस्क के विभाजन को ख़राब के रूप में चिह्नित करते हैं।

mdadm /dev/md126 --fail /dev/sda1

mdadm /dev/md127 --fail /dev/sda2

हम सरणियों से /dev/sda ब्लॉक डिवाइस विभाजन हटाते हैं।

mdadm /dev/md126 --remove /dev/sda1

mdadm /dev/md127 --remove /dev/sda2

डिस्क को ऐरे से हटाने के बाद, ब्लॉक डिवाइस की जानकारी इस तरह दिखेगी।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
sdd              8:48   0 931,5G  0 disk  

डिस्क हटाने के बाद सरणियों की स्थिति।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdb1[1]
      1047552 blocks super 1.2 [2/1] [_U]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

2. विभाजन तालिका को एक नई डिस्क पर कॉपी करें

आप निम्न आदेश से डिस्क पर प्रयुक्त विभाजन तालिका की जांच कर सकते हैं।

fdisk -l /dev/sdb | grep 'Disk label type'

एमबीआर के लिए आउटपुट होगा:

Disk label type: dos

जीपीटी के लिए:

Disk label type: gpt

एमबीआर के लिए विभाजन तालिका की प्रतिलिपि बनाना:

sfdisk -d /dev/sdb | sfdisk /dev/sdc

इस आदेश में पहले डिस्क दर्शाया गया है с जिनमें से मार्कअप कॉपी किया गया है, दूसरा - कहाँ प्रतिलिपि.

ВНИМАНИЕ: जीपीटी के लिए पहले डिस्क दर्शाया गया है जिस पर मार्कअप कॉपी करें, दूसरा डिस्क डिस्क को इंगित करता है किस से मार्कअप कॉपी करें. यदि आप डिस्क को मिलाते हैं, तो प्रारंभ में अच्छा विभाजन अधिलेखित और नष्ट हो जाएगा।

GPT के लिए लेआउट तालिका की प्रतिलिपि बनाना:

sgdisk -R /dev/sdс /dev/sdb

इसके बाद, डिस्क पर (GPT के लिए) एक यादृच्छिक UUID असाइन करें।


sgdisk -G /dev/sdc

कमांड निष्पादित होने के बाद, विभाजन डिस्क पर दिखाई देना चाहिए /dev/sdc.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
└─sdc2           8:34   0 222,5G  0 part  
sdd              8:48   0 931,5G  0 disk  

यदि, क्रिया निष्पादित होने के बाद, सिस्टम में विभाजन डिस्क पर होता है /dev/sdc अनिर्णीत है, तो हम विभाजन तालिका को फिर से पढ़ने के लिए कमांड निष्पादित करते हैं।

sfdisk -R /dev/sdc

यदि वर्तमान डिस्क एमबीआर तालिका का उपयोग करती है और जानकारी को 2 टीबी से बड़ी डिस्क में स्थानांतरित करने की आवश्यकता है, तो नई डिस्क पर आपको बायोबूट विभाजन का उपयोग करके मैन्युअल रूप से जीपीटी विभाजन बनाने की आवश्यकता होगी। इस मामले पर इस लेख के भाग 2 में चर्चा की जाएगी।

3. नई डिस्क के विभाजन को सरणी में जोड़ना

आइए डिस्क विभाजन को संबंधित सरणियों में जोड़ें।

mdadm /dev/md126 --add /dev/sdc1

mdadm /dev/md127 --add /dev/sdc2

हम जाँचते हैं कि अनुभाग जोड़े गए हैं।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  

इसके बाद, हम एरे के सिंक्रोनाइज़ होने की प्रतीक्षा करते हैं।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc1[2] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc2[2] sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      [==>..................]  recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

आप उपयोगिता का उपयोग करके सिंक्रनाइज़ेशन प्रक्रिया की लगातार निगरानी कर सकते हैं watch.

watch -n 2 cat /proc/mdstat

प्राचल -n निर्दिष्ट करता है कि प्रगति की जाँच करने के लिए सेकंड में कितने अंतराल पर कमांड को निष्पादित किया जाना चाहिए।

अगली प्रतिस्थापन डिस्क के लिए चरण 1 - 3 दोहराएँ।

हम प्रत्येक ऐरे में उपयोग की जाने वाली दूसरी डिस्क के विभाजन को ख़राब के रूप में चिह्नित करते हैं।

mdadm /dev/md126 --fail /dev/sdb1

mdadm /dev/md127 --fail /dev/sdb2

ब्लॉक डिवाइस विभाजन हटाना /dev/sdb सरणियों से.

mdadm /dev/md126 --remove /dev/sdb1

mdadm /dev/md127 --remove /dev/sdb2

डिस्क को ऐरे से हटाने के बाद, ब्लॉक डिवाइस की जानकारी इस तरह दिखेगी।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  

डिस्क हटाने के बाद सरणियों की स्थिति।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc1[2]
      1047552 blocks super 1.2 [2/1] [U_]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc2[2]
      233206784 blocks super 1.2 [2/1] [U_]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

डिस्क से एमबीआर विभाजन तालिका की प्रतिलिपि बनाना /dev/sdс डिस्क के लिए /dev/sdd.

sfdisk -d /dev/sdс | sfdisk /dev/sdd

कमांड निष्पादित होने के बाद, विभाजन डिस्क पर दिखाई देना चाहिए /dev/sdd.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
└─sdd2           8:50   0 222,5G  0 part  

सरणियों में डिस्क विभाजन जोड़ना।

mdadm /dev/md126 --add /dev/sdd1

mdadm /dev/md127 --add /dev/sdd2

हम जाँचते हैं कि अनुभाग जोड़े गए हैं।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

इसके बाद, हम एरे के सिंक्रोनाइज़ होने की प्रतीक्षा करते हैं।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdd1[3] sdc1[2]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdd2[3] sdc2[2]
      233206784 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

5. नई ड्राइव पर GRUB इंस्टाल करना

सेंटओएस के लिए:

grub2-install /dev/sdX

डेबियन/उबंटू के लिए:

grub-install /dev/sdX

जहां X - ब्लॉक डिवाइस का पत्र. इस स्थिति में, आपको GRUB को इंस्टॉल करना होगा /dev/sdc и /dev/sdd.

6. रूट विभाजन का फ़ाइल सिस्टम एक्सटेंशन (ext4)।

नई डिस्क पर /dev/sdc и /dev/sdd 931.5 जीबी उपलब्ध है। इस तथ्य के कारण कि विभाजन तालिका को छोटी डिस्क से कॉपी किया गया था, विभाजन /dev/sdc2 и /dev/sdd2 222.5 जीबी उपलब्ध है।

sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

यह आवश्यक है:

  1. प्रत्येक डिस्क पर विभाजन 2 का विस्तार करें,
  2. सरणी md127 का विस्तार करें,
  3. पीवी (भौतिक आयतन) का विस्तार करें,
  4. LV (लॉजिकल-वॉल्यूम) vg0-रूट का विस्तार करें,
  5. फ़ाइल सिस्टम का विस्तार करें.

उपयोगिता का उपयोग करना जुदा आइए अनुभाग का विस्तार करें /dev/sdc2 अधिकतम मूल्य तक. आदेश निष्पादित करें parted /dev/sdc (1) और कमांड के साथ वर्तमान विभाजन तालिका देखें p (2).

लिनक्स में छोटी डिस्क को बड़ी डिस्क से बदलना

जैसा कि आप देख सकते हैं, विभाजन 2 का अंत 240 जीबी पर समाप्त होता है। आइए कमांड के साथ विभाजन का विस्तार करें resizepart 2, जहां 2 अनुभाग (3) की संख्या है। हम मान को डिजिटल प्रारूप में इंगित करते हैं, उदाहरण के लिए 1000 जीबी, या डिस्क शेयर के संकेत का उपयोग करते हैं - 100%। हम फिर से जाँचते हैं कि विभाजन का आकार नया है (4)।

डिस्क के लिए उपरोक्त चरणों को दोहराएँ /dev/sdd. विभाजन का विस्तार करने के बाद /dev/sdc2 и /dev/sdd2 930.5 जीबी के बराबर हो गया.

[root@localhost ~]# lsblk                                                 
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 930,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 930,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

इसके बाद हम ऐरे का विस्तार करते हैं md127 अधिकतम तक.

mdadm --grow /dev/md127 --size=max

हम जांचते हैं कि सरणी का विस्तार हुआ है। अब इसका साइज 930.4 जीबी हो गया है।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 930,5G  0 part  
  └─md127        9:127  0 930,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 930,5G  0 part  
  └─md127        9:127  0 930,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

विस्तार का विस्तार भौतिक मात्रा. विस्तार करने से पहले, आइए पीवी की वर्तमान स्थिति की जाँच करें।

[root@localhost ~]# pvscan
  PV /dev/md127   VG vg0             lvm2 [222,40 GiB / 0    free]
  Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0   ]

जैसा कि देखा जा सकता है, पी.वी /dev/md127 222.4 जीबी स्थान का उपयोग करता है।

हम निम्नलिखित कमांड के साथ पीवी का विस्तार करते हैं।

pvresize /dev/md127

पीवी विस्तार के परिणाम की जाँच करना।

[

root@localhost ~]# pvscan
  PV /dev/md127   VG vg0             lvm2 [930,38 GiB / 707,98 GiB free]
  Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0   ]

विस्तार तार्किक आयतन. विस्तार करने से पहले, आइए LV (1) की वर्तमान स्थिति की जाँच करें।

[root@localhost ~]# lvscan
  ACTIVE            '/dev/vg0/swap' [<16,00 GiB] inherit
  ACTIVE            '/dev/vg0/root' [<206,41 GiB] inherit

LV /dev/vg0/root 206.41 जीबी का उपयोग करता है।

हम निम्नलिखित कमांड (2) के साथ LV का विस्तार करते हैं।

lvextend -l +100%FREE /dev/mapper/vg0-root

हम पूर्ण कार्रवाई की जाँच करते हैं (3)।

[root@localhost ~]# lvscan 
  ACTIVE            '/dev/vg0/swap' [<16,00 GiB] inherit
  ACTIVE            '/dev/vg0/root' [<914,39 GiB] inherit

जैसा कि आप देख सकते हैं, एलवी का विस्तार करने के बाद, व्याप्त डिस्क स्थान की मात्रा 914.39 जीबी हो गई।

लिनक्स में छोटी डिस्क को बड़ी डिस्क से बदलना

LV वॉल्यूम बढ़ गया है (4), लेकिन फ़ाइल सिस्टम अभी भी 204 जीबी (5) घेरता है।

1. आइए फ़ाइल सिस्टम का विस्तार करें।

resize2fs /dev/mapper/vg0-root

कमांड निष्पादित होने के बाद, हम फ़ाइल सिस्टम के आकार की जाँच करते हैं।

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                32G            0   32G            0% /dev
tmpfs                   32G            0   32G            0% /dev/shm
tmpfs                   32G         9,5M   32G            1% /run
tmpfs                   32G            0   32G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   900G         1,3G  860G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  6,3G            0  6,3G            0% /run/user/0

रूट फ़ाइल सिस्टम का आकार बढ़कर 900 जीबी हो जाएगा। चरणों को पूरा करने के बाद, आप पुरानी डिस्क को हटा सकते हैं।

केस 2: छोटी डिस्क को बड़ी डिस्क से बदलना (2TB से अधिक)

स्थापना: जानकारी को संरक्षित करते हुए वर्तमान डिस्क को बड़ी डिस्क (2 x 3TB) से बदलें। इस मामले में, हमारे पास स्थापित सिस्टम के साथ 2 x 240 जीबी SSD (RAID-1) डिस्क और 2 x 3 TB SATA डिस्क हैं जिनमें सिस्टम को स्थानांतरित करने की आवश्यकता है। वर्तमान डिस्क एमबीआर विभाजन तालिका का उपयोग करती हैं। चूंकि नई डिस्क की क्षमता 2 टीबी से अधिक है, इसलिए उन्हें जीपीटी तालिका का उपयोग करने की आवश्यकता होगी, क्योंकि एमबीआर 2 टीबी से बड़ी डिस्क के साथ काम नहीं कर सकता है।

आइए वर्तमान डिस्क लेआउट पर नजर डालें।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sda2           8:2    0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
sdd              8:48   0   2,7T  0 disk  

आइए डिस्क पर प्रयुक्त विभाजन तालिका की जाँच करें /dev/sda.

[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos

डिस्क पर /dev/sdb एक समान विभाजन तालिका का उपयोग किया जाता है. आइए सिस्टम पर प्रयुक्त डिस्क स्थान की जाँच करें।

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,5M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,3G  192G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

जैसा कि आप देख सकते हैं, फ़ाइल सिस्टम का रूट 204 जीबी लेता है। आइए सॉफ़्टवेयर RAID सरणी की वर्तमान स्थिति की जाँच करें।

1. GPT विभाजन तालिका और डिस्क विभाजन स्थापित करना

आइए सेक्टर के अनुसार डिस्क लेआउट की जाँच करें।

[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags: 

Номер  Начало  Конец   Размер  Тип      Файловая система  Флаги
 1     1049kB  1076MB  1075MB  primary                    загрузочный, raid
 2     1076MB  240GB   239GB   primary                    raid

नई 3TB डिस्क पर हमें 3 विभाजन बनाने की आवश्यकता होगी:

  1. अनुभाग bios_grub GPT BIOS संगतता के लिए 2MiB आकार,
  2. RAID सरणी के लिए विभाजन जिसमें माउंट किया जाएगा /boot.
  3. RAID सारणी के लिए विभाजन जिस पर होगा एलवी जड़ и एलवी स्वैप.

उपयोगिता स्थापित करना जुदा टीम yum install -y parted (CentOS के लिए), apt install -y parted (डेबियन/उबंटू के लिए)।

का प्रयोग जुदा आइए डिस्क को विभाजित करने के लिए निम्नलिखित कमांड चलाएँ।

आदेश निष्पादित करें parted /dev/sdc और डिस्क लेआउट संपादन मोड पर जाएं।

एक GPT विभाजन तालिका बनाएँ.

(parted) mktable gpt

1 अनुभाग बनाएँ bios_grub अनुभाग और इसके लिए एक ध्वज सेट करें।

(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on  

विभाजन 2 बनाएं और इसके लिए एक ध्वज सेट करें। विभाजन को RAID सरणी के लिए एक ब्लॉक के रूप में उपयोग किया जाएगा और उसमें माउंट किया जाएगा /boot.

(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on

हम एक तीसरा खंड बनाते हैं, जिसका उपयोग एक सरणी ब्लॉक के रूप में भी किया जाएगा जिसमें LVM स्थित होगा।

(parted) mkpart primary 1028MiB 100% 

इस स्थिति में, ध्वज को सेट करना आवश्यक नहीं है, लेकिन यदि आवश्यक हो, तो इसे निम्नलिखित कमांड से सेट किया जा सकता है।

(parted) set 3 raid on

हम बनाई गई तालिका की जांच करते हैं।

(parted) p                                                                
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags: 

Номер  Начало  Конец   Размер  Файловая система  Имя      Флаги
 1     1049kB  3146kB  2097kB                    primary  bios_grub
 2     3146kB  1077MB  1074MB                    primary  загрузочный
 3     1077MB  3001GB  3000GB                    primary

हम डिस्क पर एक नया यादृच्छिक GUID निर्दिष्ट करते हैं।

sgdisk -G /dev/sdd

2. सरणियों से पहली डिस्क के विभाजन हटाना

सरणी की स्थिति की जाँच करना

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda2[0] sdb2[1]
      233206784 blocks super 1.2 [2/2] [UU]
      bitmap: 0/2 pages [0KB], 65536KB chunk

unused devices: <none>

सिस्टम 2 सरणियों का उपयोग करता है: md126 (माउंट पॉइंट /बूट) - इसमें शामिल हैं /dev/sda1 и /dev/sdb1, md127 (एलवीएम के लिए swap और फ़ाइल सिस्टम की जड़) - से मिलकर बनता है /dev/sda2 и /dev/sdb2.

हम प्रत्येक ऐरे में उपयोग किए जाने वाले पहले डिस्क के विभाजन को ख़राब के रूप में चिह्नित करते हैं।

mdadm /dev/md126 --fail /dev/sda1

mdadm /dev/md127 --fail /dev/sda2

ब्लॉक डिवाइस विभाजन हटाना /dev/sda सरणियों से.

mdadm /dev/md126 --remove /dev/sda1

mdadm /dev/md127 --remove /dev/sda2

डिस्क को हटाने के बाद सरणी की स्थिति की जाँच करना।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdb1[1]
      1047552 blocks super 1.2 [2/1] [_U]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

3. नई डिस्क के विभाजन को सरणी में जोड़ना

अगला चरण सिंक्रनाइज़ेशन के लिए नई डिस्क के विभाजन को सरणियों में जोड़ना है। आइए डिस्क लेआउट की वर्तमान स्थिति पर नजर डालें।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
└─sdc3           8:35   0   2,7T  0 part  
sdd              8:48   0   2,7T  0 disk  

अनुभाग /dev/sdc1 है bios_grub अनुभाग और सरणियों के निर्माण में शामिल नहीं है। सरणियाँ ही उपयोग करेंगी /dev/sdc2 и /dev/sdc3. हम इन अनुभागों को संबंधित सरणियों में जोड़ते हैं।

mdadm /dev/md126 --add /dev/sdc2

mdadm /dev/md127 --add /dev/sdc3

फिर हम सरणी के सिंक्रनाइज़ होने की प्रतीक्षा करते हैं।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc2[2] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc3[2] sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      [>....................]  recovery =  0.2% (619904/233206784) finish=31.2min speed=123980K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>

सरणी में विभाजन जोड़ने के बाद डिस्क विभाजन।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  

4. सरणियों से दूसरी डिस्क के विभाजन हटाना

हम प्रत्येक ऐरे में उपयोग की जाने वाली दूसरी डिस्क के विभाजन को ख़राब के रूप में चिह्नित करते हैं।

mdadm /dev/md126 --fail /dev/sdb1

mdadm /dev/md127 --fail /dev/sdb2

ब्लॉक डिवाइस विभाजन हटाना /dev/sda सरणियों से.

mdadm /dev/md126 --remove /dev/sdb1

mdadm /dev/md127 --remove /dev/sdb2

5. GPT लेआउट तालिका की प्रतिलिपि बनाएँ और सरणी को सिंक्रनाइज़ करें

GPT मार्कअप तालिका की प्रतिलिपि बनाने के लिए हम उपयोगिता का उपयोग करेंगे sgdisk, जो डिस्क विभाजन और GPT तालिका के साथ काम करने के लिए पैकेज में शामिल है - gdisk.

स्थापना gdisk सेंटओएस के लिए:

yum install -y gdisk

स्थापना gdisk डेबियन/उबंटू के लिए:

apt install -y gdisk

ВНИМАНИЕ: जीपीटी के लिए पहले डिस्क दर्शाया गया है जिस पर मार्कअप कॉपी करें, दूसरा डिस्क डिस्क को इंगित करता है किस से मार्कअप कॉपी करें. यदि आप डिस्क को मिलाते हैं, तो प्रारंभ में अच्छा विभाजन अधिलेखित और नष्ट हो जाएगा।

GPT मार्कअप तालिका की प्रतिलिपि बनाएँ।

sgdisk -R /dev/sdd /dev/sdc

किसी तालिका को डिस्क में स्थानांतरित करने के बाद डिस्क विभाजन /dev/sdd.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
└─sdd3           8:51   0   2,7T  0 part  

इसके बाद, हम सॉफ़्टवेयर RAID सरणियों में भाग लेने वाले प्रत्येक विभाजन को जोड़ते हैं।

mdadm /dev/md126 --add /dev/sdd2

mdadm /dev/md127 --add /dev/sdd3

हम सरणी के सिंक्रनाइज़ होने की प्रतीक्षा कर रहे हैं।

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdd2[3] sdc2[2]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md127 : active raid1 sdd3[3] sdc3[2]
      233206784 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.0% (148224/233206784) finish=26.2min speed=148224K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>

GPT पार्टीशन को दूसरी नई डिस्क पर कॉपी करने के बाद, पार्टीशन इस तरह दिखेगा।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

इसके बाद, नई डिस्क पर GRUB स्थापित करें।

CentOS के लिए स्थापना:

grub2-install /dev/sdX

डेबियन/उबंटू के लिए स्थापना:

grub-install /dev/sdX

जहां X — ड्राइव अक्षर, हमारे मामले में ड्राइव /dev/sdc и /dev/sdd.

हम सरणी के बारे में जानकारी अद्यतन करते हैं।

सेंटओएस के लिए:

mdadm --detail --scan --verbose > /etc/mdadm.conf

डेबियन/उबंटू के लिए:

echo "DEVICE partitions" > /etc/mdadm/mdadm.conf

mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf

छवि अद्यतन कर रहा है initrd:
सेंटओएस के लिए:

dracut -f -v --regenerate-all

डेबियन/उबंटू के लिए:

update-initramfs -u -k all

हम GRUB कॉन्फ़िगरेशन को अपडेट करते हैं।

सेंटओएस के लिए:

grub2-mkconfig -o /boot/grub2/grub.cfg

डेबियन/उबंटू के लिए:

update-grub

चरणों को पूरा करने के बाद, पुरानी डिस्क को हटाया जा सकता है।

6. रूट विभाजन का फ़ाइल सिस्टम एक्सटेंशन (ext4)।

सिस्टम को 2 x 3TB डिस्क (RAID-1) में स्थानांतरित करने के बाद फ़ाइल सिस्टम विस्तार से पहले डिस्क विभाजन।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
sdb              8:16   0 223,6G  0 disk  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md126        9:126  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md126        9:126  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

अब अनुभाग /dev/sdc3 и /dev/sdd3 2.7 टीबी पर कब्जा। चूँकि हमने GPT तालिका के साथ एक नया डिस्क लेआउट बनाया था, विभाजन 3 का आकार तुरंत अधिकतम संभव डिस्क स्थान पर सेट किया गया था; इस मामले में, विभाजन का विस्तार करने की कोई आवश्यकता नहीं है।

यह आवश्यक है:

  1. सरणी md126 का विस्तार करें,
  2. पीवी (भौतिक आयतन) का विस्तार करें,
  3. LV (लॉजिकल-वॉल्यूम) vg0-रूट का विस्तार करें,
  4. फ़ाइल सिस्टम का विस्तार करें.

1. सरणी का विस्तार करें md126 अधिकतम तक.

mdadm --grow /dev/md126 --size=max

सरणी विस्तार के बाद md126 अधिगृहीत स्थान का आकार बढ़कर 2.7 टीबी हो गया है।

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
sdb              8:16   0 223,6G  0 disk  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md126        9:126  0   2,7T  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md126        9:126  0   2,7T  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

विस्तार भौतिक मात्रा.

विस्तार करने से पहले, कब्जे वाले स्थान पीवी / के वर्तमान मूल्य की जांच करेंdev/md126.

[root@localhost ~]# pvs
  PV         VG  Fmt  Attr PSize   PFree
  /dev/md126 vg0 lvm2 a--  222,40g    0 

हम निम्नलिखित कमांड के साथ पीवी का विस्तार करते हैं।

pvresize /dev/md126

हम पूर्ण कार्रवाई की जांच करते हैं।

[root@localhost ~]# pvs
  PV         VG  Fmt  Attr PSize  PFree
  /dev/md126 vg0 lvm2 a--  <2,73t 2,51t

विस्तार तार्किक आयतन vg0-रूट.

पीवी का विस्तार करने के बाद, आइए कब्जे वाले स्थान वीजी की जांच करें।

[root@localhost ~]# vgs
  VG  #PV #LV #SN Attr   VSize  VFree
  vg0   1   2   0 wz--n- <2,73t 2,51t

आइए LV द्वारा घेरे गए स्थान की जाँच करें।

[root@localhost ~]# lvs
  LV   VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root vg0 -wi-ao---- <206,41g                                                    
  swap vg0 -wi-ao----  <16,00g            

Vg0-रूट वॉल्यूम 206.41 जीबी है।

हम LV को अधिकतम डिस्क स्थान तक विस्तारित करते हैं।

lvextend -l +100%FREE /dev/mapper/vg0-root 

विस्तार के बाद एलवी स्थान की जाँच करना।

[root@localhost ~]# lvs
  LV   VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root vg0 -wi-ao----   2,71t                                                    
  swap vg0 -wi-ao---- <16,00g

फ़ाइल सिस्टम का विस्तार (ext4)।

आइए फ़ाइल सिस्टम के वर्तमान आकार की जाँच करें।

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,6M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,4G  192G            1% /
/dev/md127            1007M         141M  816M           15% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

एलवी विस्तार के बाद वॉल्यूम /dev/mapper/vg0-root का आकार 204 जीबी है।

फ़ाइल सिस्टम का विस्तार करना.

resize2fs /dev/mapper/vg0-root 

फ़ाइल सिस्टम का विस्तार करने के बाद उसके आकार की जाँच करना।

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,6M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   2,7T         1,4G  2,6T            1% /
/dev/md127            1007M         141M  816M           15% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

संपूर्ण वॉल्यूम को कवर करने के लिए फ़ाइल सिस्टम का आकार बढ़ा दिया गया है।

स्रोत: www.habr.com

एक टिप्पणी जोड़ें