नमस्ते। एक नए पाठ्यक्रम समूह की शुरुआत की पूर्व संध्या पर
यह आलेख डिस्क को बदलने और सरणी और फ़ाइल सिस्टम के आगे विस्तार के साथ बड़ी क्षमता की नई डिस्क में जानकारी स्थानांतरित करने के 2 मामलों पर विचार करेगा। पहला मामला समान एमबीआर/एमबीआर या जीपीटी/जीपीटी विभाजन के साथ डिस्क के प्रतिस्थापन से संबंधित होगा, दूसरा मामला 2 टीबी से अधिक क्षमता वाले डिस्क के साथ एमबीआर विभाजन के साथ डिस्क के प्रतिस्थापन से संबंधित है, जिस पर आपको इंस्टॉल करने की आवश्यकता होगी बायोबूट विभाजन के साथ एक GPT विभाजन। दोनों ही मामलों में, जिन डिस्क पर हम डेटा स्थानांतरित करते हैं वे पहले से ही सर्वर पर स्थापित हैं। रूट विभाजन के लिए प्रयुक्त फ़ाइल सिस्टम ext4 है।
केस 1: छोटी डिस्क को बड़ी डिस्क से बदलना (2टीबी तक)
उद्देश्य: सूचना हस्तांतरण के साथ वर्तमान डिस्क को बड़ी डिस्क (2 टीबी तक) से बदलें। इस मामले में, हमारे पास स्थापित सिस्टम के साथ 2 x 240 जीबी SSD (RAID-1) डिस्क और 2 x 1 TB SATA डिस्क हैं जिनमें सिस्टम को स्थानांतरित करने की आवश्यकता है।
आइए वर्तमान डिस्क लेआउट पर नजर डालें।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
आइए वर्तमान में उपयोग किए गए फ़ाइल सिस्टम स्थान की जाँच करें।
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,6M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
डिस्क को बदलने से पहले फ़ाइल सिस्टम का आकार 204 जीबी है, 2 एमडी 126 सॉफ़्टवेयर एरे का उपयोग किया जाता है, जो इसमें माउंट किया गया है /boot
и md127
, जिसका उपयोग इस प्रकार किया जाता है भौतिक मात्रा वीजी समूह के लिए vg0.
1. सरणियों से डिस्क विभाजन हटाना
सरणी की स्थिति की जाँच करना
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
सिस्टम 2 सरणियों का उपयोग करता है: md126
(माउंट पॉइंट /boot
) - एक अनुभाग से मिलकर बनता है /dev/sda1
и /dev/sdb1
, md127
(एलवीएम के लिए विनिमय और फ़ाइल सिस्टम की जड़) - से मिलकर बनता है /dev/sda2
и /dev/sdb2
.
हम प्रत्येक ऐरे में उपयोग किए जाने वाले पहले डिस्क के विभाजन को ख़राब के रूप में चिह्नित करते हैं।
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
हम सरणियों से /dev/sda ब्लॉक डिवाइस विभाजन हटाते हैं।
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
डिस्क को ऐरे से हटाने के बाद, ब्लॉक डिवाइस की जानकारी इस तरह दिखेगी।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
डिस्क हटाने के बाद सरणियों की स्थिति।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
2. विभाजन तालिका को एक नई डिस्क पर कॉपी करें
आप निम्न आदेश से डिस्क पर प्रयुक्त विभाजन तालिका की जांच कर सकते हैं।
fdisk -l /dev/sdb | grep 'Disk label type'
एमबीआर के लिए आउटपुट होगा:
Disk label type: dos
जीपीटी के लिए:
Disk label type: gpt
एमबीआर के लिए विभाजन तालिका की प्रतिलिपि बनाना:
sfdisk -d /dev/sdb | sfdisk /dev/sdc
इस आदेश में पहले डिस्क दर्शाया गया है с जिनमें से मार्कअप कॉपी किया गया है, दूसरा - कहाँ प्रतिलिपि.
ВНИМАНИЕ: जीपीटी के लिए पहले डिस्क दर्शाया गया है जिस पर मार्कअप कॉपी करें, दूसरा डिस्क डिस्क को इंगित करता है किस से मार्कअप कॉपी करें. यदि आप डिस्क को मिलाते हैं, तो प्रारंभ में अच्छा विभाजन अधिलेखित और नष्ट हो जाएगा।
GPT के लिए लेआउट तालिका की प्रतिलिपि बनाना:
sgdisk -R /dev/sdс /dev/sdb
इसके बाद, डिस्क पर (GPT के लिए) एक यादृच्छिक UUID असाइन करें।
sgdisk -G /dev/sdc
कमांड निष्पादित होने के बाद, विभाजन डिस्क पर दिखाई देना चाहिए /dev/sdc
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
└─sdc2 8:34 0 222,5G 0 part
sdd 8:48 0 931,5G 0 disk
यदि, क्रिया निष्पादित होने के बाद, सिस्टम में विभाजन डिस्क पर होता है /dev/sdc
अनिर्णीत है, तो हम विभाजन तालिका को फिर से पढ़ने के लिए कमांड निष्पादित करते हैं।
sfdisk -R /dev/sdc
यदि वर्तमान डिस्क एमबीआर तालिका का उपयोग करती है और जानकारी को 2 टीबी से बड़ी डिस्क में स्थानांतरित करने की आवश्यकता है, तो नई डिस्क पर आपको बायोबूट विभाजन का उपयोग करके मैन्युअल रूप से जीपीटी विभाजन बनाने की आवश्यकता होगी। इस मामले पर इस लेख के भाग 2 में चर्चा की जाएगी।
3. नई डिस्क के विभाजन को सरणी में जोड़ना
आइए डिस्क विभाजन को संबंधित सरणियों में जोड़ें।
mdadm /dev/md126 --add /dev/sdc1
mdadm /dev/md127 --add /dev/sdc2
हम जाँचते हैं कि अनुभाग जोड़े गए हैं।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
इसके बाद, हम एरे के सिंक्रोनाइज़ होने की प्रतीक्षा करते हैं।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[==>..................] recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
आप उपयोगिता का उपयोग करके सिंक्रनाइज़ेशन प्रक्रिया की लगातार निगरानी कर सकते हैं watch
.
watch -n 2 cat /proc/mdstat
प्राचल -n
निर्दिष्ट करता है कि प्रगति की जाँच करने के लिए सेकंड में कितने अंतराल पर कमांड को निष्पादित किया जाना चाहिए।
अगली प्रतिस्थापन डिस्क के लिए चरण 1 - 3 दोहराएँ।
हम प्रत्येक ऐरे में उपयोग की जाने वाली दूसरी डिस्क के विभाजन को ख़राब के रूप में चिह्नित करते हैं।
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
ब्लॉक डिवाइस विभाजन हटाना /dev/sdb
सरणियों से.
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
डिस्क को ऐरे से हटाने के बाद, ब्लॉक डिवाइस की जानकारी इस तरह दिखेगी।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
डिस्क हटाने के बाद सरणियों की स्थिति।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2]
1047552 blocks super 1.2 [2/1] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
डिस्क से एमबीआर विभाजन तालिका की प्रतिलिपि बनाना /dev/sdс
डिस्क के लिए /dev/sdd
.
sfdisk -d /dev/sdс | sfdisk /dev/sdd
कमांड निष्पादित होने के बाद, विभाजन डिस्क पर दिखाई देना चाहिए /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
└─sdd2 8:50 0 222,5G 0 part
सरणियों में डिस्क विभाजन जोड़ना।
mdadm /dev/md126 --add /dev/sdd1
mdadm /dev/md127 --add /dev/sdd2
हम जाँचते हैं कि अनुभाग जोड़े गए हैं।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
इसके बाद, हम एरे के सिंक्रोनाइज़ होने की प्रतीक्षा करते हैं।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd1[3] sdc1[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdd2[3] sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
5. नई ड्राइव पर GRUB इंस्टाल करना
सेंटओएस के लिए:
grub2-install /dev/sdX
डेबियन/उबंटू के लिए:
grub-install /dev/sdX
जहां X
- ब्लॉक डिवाइस का पत्र. इस स्थिति में, आपको GRUB को इंस्टॉल करना होगा /dev/sdc
и /dev/sdd
.
6. रूट विभाजन का फ़ाइल सिस्टम एक्सटेंशन (ext4)।
नई डिस्क पर /dev/sdc
и /dev/sdd
931.5 जीबी उपलब्ध है। इस तथ्य के कारण कि विभाजन तालिका को छोटी डिस्क से कॉपी किया गया था, विभाजन /dev/sdc2
и /dev/sdd2
222.5 जीबी उपलब्ध है।
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
यह आवश्यक है:
- प्रत्येक डिस्क पर विभाजन 2 का विस्तार करें,
- सरणी md127 का विस्तार करें,
- पीवी (भौतिक आयतन) का विस्तार करें,
- LV (लॉजिकल-वॉल्यूम) vg0-रूट का विस्तार करें,
- फ़ाइल सिस्टम का विस्तार करें.
उपयोगिता का उपयोग करना जुदा आइए अनुभाग का विस्तार करें /dev/sdc2
अधिकतम मूल्य तक. आदेश निष्पादित करें parted /dev/sdc
(1) और कमांड के साथ वर्तमान विभाजन तालिका देखें p
(2).
जैसा कि आप देख सकते हैं, विभाजन 2 का अंत 240 जीबी पर समाप्त होता है। आइए कमांड के साथ विभाजन का विस्तार करें resizepart
2
, जहां 2 अनुभाग (3) की संख्या है। हम मान को डिजिटल प्रारूप में इंगित करते हैं, उदाहरण के लिए 1000 जीबी, या डिस्क शेयर के संकेत का उपयोग करते हैं - 100%। हम फिर से जाँचते हैं कि विभाजन का आकार नया है (4)।
डिस्क के लिए उपरोक्त चरणों को दोहराएँ /dev/sdd
. विभाजन का विस्तार करने के बाद /dev/sdc2
и /dev/sdd2
930.5 जीबी के बराबर हो गया.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
इसके बाद हम ऐरे का विस्तार करते हैं md127 अधिकतम तक.
mdadm --grow /dev/md127 --size=max
हम जांचते हैं कि सरणी का विस्तार हुआ है। अब इसका साइज 930.4 जीबी हो गया है।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
विस्तार का विस्तार भौतिक मात्रा. विस्तार करने से पहले, आइए पीवी की वर्तमान स्थिति की जाँच करें।
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [222,40 GiB / 0 free]
Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0 ]
जैसा कि देखा जा सकता है, पी.वी /dev/md127
222.4 जीबी स्थान का उपयोग करता है।
हम निम्नलिखित कमांड के साथ पीवी का विस्तार करते हैं।
pvresize /dev/md127
पीवी विस्तार के परिणाम की जाँच करना।
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [930,38 GiB / 707,98 GiB free]
Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0 ]
विस्तार तार्किक आयतन. विस्तार करने से पहले, आइए LV (1) की वर्तमान स्थिति की जाँच करें।
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<206,41 GiB] inherit
LV /dev/vg0/root
206.41 जीबी का उपयोग करता है।
हम निम्नलिखित कमांड (2) के साथ LV का विस्तार करते हैं।
lvextend -l +100%FREE /dev/mapper/vg0-root
हम पूर्ण कार्रवाई की जाँच करते हैं (3)।
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<914,39 GiB] inherit
जैसा कि आप देख सकते हैं, एलवी का विस्तार करने के बाद, व्याप्त डिस्क स्थान की मात्रा 914.39 जीबी हो गई।
LV वॉल्यूम बढ़ गया है (4), लेकिन फ़ाइल सिस्टम अभी भी 204 जीबी (5) घेरता है।
1. आइए फ़ाइल सिस्टम का विस्तार करें।
resize2fs /dev/mapper/vg0-root
कमांड निष्पादित होने के बाद, हम फ़ाइल सिस्टम के आकार की जाँच करते हैं।
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,5M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 900G 1,3G 860G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
रूट फ़ाइल सिस्टम का आकार बढ़कर 900 जीबी हो जाएगा। चरणों को पूरा करने के बाद, आप पुरानी डिस्क को हटा सकते हैं।
केस 2: छोटी डिस्क को बड़ी डिस्क से बदलना (2TB से अधिक)
स्थापना: जानकारी को संरक्षित करते हुए वर्तमान डिस्क को बड़ी डिस्क (2 x 3TB) से बदलें। इस मामले में, हमारे पास स्थापित सिस्टम के साथ 2 x 240 जीबी SSD (RAID-1) डिस्क और 2 x 3 TB SATA डिस्क हैं जिनमें सिस्टम को स्थानांतरित करने की आवश्यकता है। वर्तमान डिस्क एमबीआर विभाजन तालिका का उपयोग करती हैं। चूंकि नई डिस्क की क्षमता 2 टीबी से अधिक है, इसलिए उन्हें जीपीटी तालिका का उपयोग करने की आवश्यकता होगी, क्योंकि एमबीआर 2 टीबी से बड़ी डिस्क के साथ काम नहीं कर सकता है।
आइए वर्तमान डिस्क लेआउट पर नजर डालें।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
sdd 8:48 0 2,7T 0 disk
आइए डिस्क पर प्रयुक्त विभाजन तालिका की जाँच करें /dev/sda
.
[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos
डिस्क पर /dev/sdb
एक समान विभाजन तालिका का उपयोग किया जाता है. आइए सिस्टम पर प्रयुक्त डिस्क स्थान की जाँच करें।
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,5M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
जैसा कि आप देख सकते हैं, फ़ाइल सिस्टम का रूट 204 जीबी लेता है। आइए सॉफ़्टवेयर RAID सरणी की वर्तमान स्थिति की जाँच करें।
1. GPT विभाजन तालिका और डिस्क विभाजन स्थापित करना
आइए सेक्टर के अनुसार डिस्क लेआउट की जाँच करें।
[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags:
Номер Начало Конец Размер Тип Файловая система Флаги
1 1049kB 1076MB 1075MB primary загрузочный, raid
2 1076MB 240GB 239GB primary raid
नई 3TB डिस्क पर हमें 3 विभाजन बनाने की आवश्यकता होगी:
- अनुभाग
bios_grub
GPT BIOS संगतता के लिए 2MiB आकार, - RAID सरणी के लिए विभाजन जिसमें माउंट किया जाएगा
/boot
. - RAID सारणी के लिए विभाजन जिस पर होगा एलवी जड़ и एलवी स्वैप.
उपयोगिता स्थापित करना जुदा टीम yum install -y parted
(CentOS के लिए), apt install -y parted
(डेबियन/उबंटू के लिए)।
का प्रयोग जुदा आइए डिस्क को विभाजित करने के लिए निम्नलिखित कमांड चलाएँ।
आदेश निष्पादित करें parted /dev/sdc
और डिस्क लेआउट संपादन मोड पर जाएं।
एक GPT विभाजन तालिका बनाएँ.
(parted) mktable gpt
1 अनुभाग बनाएँ bios_grub
अनुभाग और इसके लिए एक ध्वज सेट करें।
(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on
विभाजन 2 बनाएं और इसके लिए एक ध्वज सेट करें। विभाजन को RAID सरणी के लिए एक ब्लॉक के रूप में उपयोग किया जाएगा और उसमें माउंट किया जाएगा /boot
.
(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on
हम एक तीसरा खंड बनाते हैं, जिसका उपयोग एक सरणी ब्लॉक के रूप में भी किया जाएगा जिसमें LVM स्थित होगा।
(parted) mkpart primary 1028MiB 100%
इस स्थिति में, ध्वज को सेट करना आवश्यक नहीं है, लेकिन यदि आवश्यक हो, तो इसे निम्नलिखित कमांड से सेट किया जा सकता है।
(parted) set 3 raid on
हम बनाई गई तालिका की जांच करते हैं।
(parted) p
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags:
Номер Начало Конец Размер Файловая система Имя Флаги
1 1049kB 3146kB 2097kB primary bios_grub
2 3146kB 1077MB 1074MB primary загрузочный
3 1077MB 3001GB 3000GB primary
हम डिस्क पर एक नया यादृच्छिक GUID निर्दिष्ट करते हैं।
sgdisk -G /dev/sdd
2. सरणियों से पहली डिस्क के विभाजन हटाना
सरणी की स्थिति की जाँच करना
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
सिस्टम 2 सरणियों का उपयोग करता है: md126 (माउंट पॉइंट /बूट) - इसमें शामिल हैं /dev/sda1
и /dev/sdb1
, md127
(एलवीएम के लिए swap
और फ़ाइल सिस्टम की जड़) - से मिलकर बनता है /dev/sda2
и /dev/sdb2
.
हम प्रत्येक ऐरे में उपयोग किए जाने वाले पहले डिस्क के विभाजन को ख़राब के रूप में चिह्नित करते हैं।
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
ब्लॉक डिवाइस विभाजन हटाना /dev/sda
सरणियों से.
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
डिस्क को हटाने के बाद सरणी की स्थिति की जाँच करना।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
3. नई डिस्क के विभाजन को सरणी में जोड़ना
अगला चरण सिंक्रनाइज़ेशन के लिए नई डिस्क के विभाजन को सरणियों में जोड़ना है। आइए डिस्क लेआउट की वर्तमान स्थिति पर नजर डालें।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
└─sdc3 8:35 0 2,7T 0 part
sdd 8:48 0 2,7T 0 disk
अनुभाग /dev/sdc1
है bios_grub
अनुभाग और सरणियों के निर्माण में शामिल नहीं है। सरणियाँ ही उपयोग करेंगी /dev/sdc2
и /dev/sdc3
. हम इन अनुभागों को संबंधित सरणियों में जोड़ते हैं।
mdadm /dev/md126 --add /dev/sdc2
mdadm /dev/md127 --add /dev/sdc3
फिर हम सरणी के सिंक्रनाइज़ होने की प्रतीक्षा करते हैं।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc2[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc3[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[>....................] recovery = 0.2% (619904/233206784) finish=31.2min speed=123980K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
सरणी में विभाजन जोड़ने के बाद डिस्क विभाजन।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
4. सरणियों से दूसरी डिस्क के विभाजन हटाना
हम प्रत्येक ऐरे में उपयोग की जाने वाली दूसरी डिस्क के विभाजन को ख़राब के रूप में चिह्नित करते हैं।
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
ब्लॉक डिवाइस विभाजन हटाना /dev/sda
सरणियों से.
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
5. GPT लेआउट तालिका की प्रतिलिपि बनाएँ और सरणी को सिंक्रनाइज़ करें
GPT मार्कअप तालिका की प्रतिलिपि बनाने के लिए हम उपयोगिता का उपयोग करेंगे sgdisk
, जो डिस्क विभाजन और GPT तालिका के साथ काम करने के लिए पैकेज में शामिल है - gdisk
.
स्थापना gdisk
सेंटओएस के लिए:
yum install -y gdisk
स्थापना gdisk
डेबियन/उबंटू के लिए:
apt install -y gdisk
ВНИМАНИЕ: जीपीटी के लिए पहले डिस्क दर्शाया गया है जिस पर मार्कअप कॉपी करें, दूसरा डिस्क डिस्क को इंगित करता है किस से मार्कअप कॉपी करें. यदि आप डिस्क को मिलाते हैं, तो प्रारंभ में अच्छा विभाजन अधिलेखित और नष्ट हो जाएगा।
GPT मार्कअप तालिका की प्रतिलिपि बनाएँ।
sgdisk -R /dev/sdd /dev/sdc
किसी तालिका को डिस्क में स्थानांतरित करने के बाद डिस्क विभाजन /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
└─sdd3 8:51 0 2,7T 0 part
इसके बाद, हम सॉफ़्टवेयर RAID सरणियों में भाग लेने वाले प्रत्येक विभाजन को जोड़ते हैं।
mdadm /dev/md126 --add /dev/sdd2
mdadm /dev/md127 --add /dev/sdd3
हम सरणी के सिंक्रनाइज़ होने की प्रतीक्षा कर रहे हैं।
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd2[3] sdc2[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 1/1 pages [4KB], 65536KB chunk
md127 : active raid1 sdd3[3] sdc3[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.0% (148224/233206784) finish=26.2min speed=148224K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
GPT पार्टीशन को दूसरी नई डिस्क पर कॉपी करने के बाद, पार्टीशन इस तरह दिखेगा।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
इसके बाद, नई डिस्क पर GRUB स्थापित करें।
CentOS के लिए स्थापना:
grub2-install /dev/sdX
डेबियन/उबंटू के लिए स्थापना:
grub-install /dev/sdX
जहां X
— ड्राइव अक्षर, हमारे मामले में ड्राइव /dev/sdc
и /dev/sdd
.
हम सरणी के बारे में जानकारी अद्यतन करते हैं।
सेंटओएस के लिए:
mdadm --detail --scan --verbose > /etc/mdadm.conf
डेबियन/उबंटू के लिए:
echo "DEVICE partitions" > /etc/mdadm/mdadm.conf
mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf
छवि अद्यतन कर रहा है initrd
:
सेंटओएस के लिए:
dracut -f -v --regenerate-all
डेबियन/उबंटू के लिए:
update-initramfs -u -k all
हम GRUB कॉन्फ़िगरेशन को अपडेट करते हैं।
सेंटओएस के लिए:
grub2-mkconfig -o /boot/grub2/grub.cfg
डेबियन/उबंटू के लिए:
update-grub
चरणों को पूरा करने के बाद, पुरानी डिस्क को हटाया जा सकता है।
6. रूट विभाजन का फ़ाइल सिस्टम एक्सटेंशन (ext4)।
सिस्टम को 2 x 3TB डिस्क (RAID-1) में स्थानांतरित करने के बाद फ़ाइल सिस्टम विस्तार से पहले डिस्क विभाजन।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
अब अनुभाग /dev/sdc3
и /dev/sdd3
2.7 टीबी पर कब्जा। चूँकि हमने GPT तालिका के साथ एक नया डिस्क लेआउट बनाया था, विभाजन 3 का आकार तुरंत अधिकतम संभव डिस्क स्थान पर सेट किया गया था; इस मामले में, विभाजन का विस्तार करने की कोई आवश्यकता नहीं है।
यह आवश्यक है:
- सरणी md126 का विस्तार करें,
- पीवी (भौतिक आयतन) का विस्तार करें,
- LV (लॉजिकल-वॉल्यूम) vg0-रूट का विस्तार करें,
- फ़ाइल सिस्टम का विस्तार करें.
1. सरणी का विस्तार करें md126
अधिकतम तक.
mdadm --grow /dev/md126 --size=max
सरणी विस्तार के बाद md126
अधिगृहीत स्थान का आकार बढ़कर 2.7 टीबी हो गया है।
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
विस्तार भौतिक मात्रा.
विस्तार करने से पहले, कब्जे वाले स्थान पीवी / के वर्तमान मूल्य की जांच करेंdev/md126
.
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- 222,40g 0
हम निम्नलिखित कमांड के साथ पीवी का विस्तार करते हैं।
pvresize /dev/md126
हम पूर्ण कार्रवाई की जांच करते हैं।
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- <2,73t 2,51t
विस्तार तार्किक आयतन vg0-रूट.
पीवी का विस्तार करने के बाद, आइए कब्जे वाले स्थान वीजी की जांच करें।
[root@localhost ~]# vgs
VG #PV #LV #SN Attr VSize VFree
vg0 1 2 0 wz--n- <2,73t 2,51t
आइए LV द्वारा घेरे गए स्थान की जाँच करें।
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- <206,41g
swap vg0 -wi-ao---- <16,00g
Vg0-रूट वॉल्यूम 206.41 जीबी है।
हम LV को अधिकतम डिस्क स्थान तक विस्तारित करते हैं।
lvextend -l +100%FREE /dev/mapper/vg0-root
विस्तार के बाद एलवी स्थान की जाँच करना।
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- 2,71t
swap vg0 -wi-ao---- <16,00g
फ़ाइल सिस्टम का विस्तार (ext4)।
आइए फ़ाइल सिस्टम के वर्तमान आकार की जाँच करें।
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,4G 192G 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
एलवी विस्तार के बाद वॉल्यूम /dev/mapper/vg0-root का आकार 204 जीबी है।
फ़ाइल सिस्टम का विस्तार करना.
resize2fs /dev/mapper/vg0-root
फ़ाइल सिस्टम का विस्तार करने के बाद उसके आकार की जाँच करना।
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 2,7T 1,4G 2,6T 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
संपूर्ण वॉल्यूम को कवर करने के लिए फ़ाइल सिस्टम का आकार बढ़ा दिया गया है।
स्रोत: www.habr.com