அனைவருக்கும் வணக்கம். புதிய பாடப்பிரிவு குழு தொடங்குவதற்கு முன்பு
வரிசை மற்றும் கோப்பு முறைமையின் மேலும் விரிவாக்கத்துடன் வட்டுகளை மாற்றுவது மற்றும் பெரிய திறன் கொண்ட புதிய வட்டுகளுக்கு தகவலை மாற்றுவது போன்ற 2 நிகழ்வுகளை இந்தக் கட்டுரை பரிசீலிக்கும். முதல் வழக்கு வட்டுகளை அதே MBR/MBR அல்லது GPT/GPT பகிர்வுடன் மாற்றுவது பற்றியது, இரண்டாவது வழக்கு 2 TB க்கும் அதிகமான திறன் கொண்ட வட்டுகளுடன் MBR பகிர்வுடன் வட்டுகளை மாற்றுவது பற்றியது, அதில் நீங்கள் நிறுவ வேண்டும். பயோஸ்பூட் பகிர்வுடன் கூடிய GPT பகிர்வு. இரண்டு சந்தர்ப்பங்களிலும், நாங்கள் தரவை மாற்றும் வட்டுகள் ஏற்கனவே சேவையகத்தில் நிறுவப்பட்டுள்ளன. ரூட் பகிர்வுக்கு பயன்படுத்தப்படும் கோப்பு முறைமை ext4 ஆகும்.
வழக்கு 1: சிறிய வட்டுகளை பெரிய வட்டுகளுடன் மாற்றுதல் (2TB வரை)
பணி: தற்போதைய வட்டுகளை பெரிய வட்டுகளுடன் (2 TB வரை) தகவல் பரிமாற்றத்துடன் மாற்றவும். இந்த நிலையில், எங்களிடம் 2 x 240 GB SSD (RAID-1) டிஸ்க்குகள் நிறுவப்பட்டுள்ளன, மேலும் 2 x 1 TB SATA டிஸ்க்குகள் கணினியை மாற்ற வேண்டும்.
தற்போதைய வட்டு அமைப்பைப் பார்ப்போம்.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
தற்போது பயன்படுத்தப்படும் கோப்பு முறைமை இடத்தை சரிபார்க்கலாம்.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,6M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
வட்டுகளை மாற்றுவதற்கு முன் கோப்பு முறைமையின் அளவு 204 ஜிபி ஆகும், 2 எம்டி 126 மென்பொருள் வரிசைகள் பயன்படுத்தப்படுகின்றன, இது நிறுவப்பட்டுள்ளது /boot
и md127
, இது பயன்படுத்தப்படுகிறது உடல் அளவு VG குழுவிற்கு vg0.
1. வரிசைகளில் இருந்து வட்டு பகிர்வுகளை நீக்குதல்
வரிசையின் நிலையைச் சரிபார்க்கிறது
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
கணினி 2 வரிசைகளைப் பயன்படுத்துகிறது: md126
(மவுண்ட் பாயிண்ட் /boot
) - ஒரு பகுதியைக் கொண்டுள்ளது /dev/sda1
и /dev/sdb1
, md127
(LVM க்கான இடமாற்று மற்றும் கோப்பு முறைமையின் ரூட்) - கொண்டுள்ளது /dev/sda2
и /dev/sdb2
.
ஒவ்வொரு வரிசையிலும் பயன்படுத்தப்படும் முதல் வட்டின் பகிர்வுகளை மோசமானதாகக் குறிக்கிறோம்.
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
வரிசைகளில் இருந்து /dev/sda தொகுதி சாதனப் பகிர்வுகளை அகற்றுவோம்.
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
வரிசையிலிருந்து வட்டை அகற்றிய பிறகு, தொகுதி சாதனத் தகவல் இப்படி இருக்கும்.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
வட்டுகளை அகற்றிய பின் வரிசைகளின் நிலை.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
2. பகிர்வு அட்டவணையை புதிய வட்டுக்கு நகலெடுக்கவும்
பின்வரும் கட்டளையுடன் வட்டில் பயன்படுத்தப்பட்ட பகிர்வு அட்டவணையை நீங்கள் சரிபார்க்கலாம்.
fdisk -l /dev/sdb | grep 'Disk label type'
MBR க்கான வெளியீடு:
Disk label type: dos
GPTக்கு:
Disk label type: gpt
MBR க்கான பகிர்வு அட்டவணையை நகலெடுக்கிறது:
sfdisk -d /dev/sdb | sfdisk /dev/sdc
இந்த அணியில் первым இயக்கி சுட்டிக்காட்டப்படுகிறது с இது மார்க்அப் நகலெடுக்கப்பட்டது, இரண்டாவது - எங்கே நகல்.
எச்சரிக்கை: GPTக்கு первым இயக்கி சுட்டிக்காட்டப்படுகிறது எதன் மீது நகல் மார்க்அப், இரண்டாவது வட்டு வட்டைக் குறிக்கிறது எதிலிருந்து நகல் மார்க்அப். நீங்கள் வட்டுகளை கலக்கினால், ஆரம்பத்தில் நல்ல பகிர்வு மேலெழுதப்பட்டு அழிக்கப்படும்.
GPTக்கான தளவமைப்பு அட்டவணையை நகலெடுக்கிறது:
sgdisk -R /dev/sdс /dev/sdb
அடுத்து, ஒரு சீரற்ற UUID ஐ வட்டுக்கு ஒதுக்கவும் (GPTக்கு).
sgdisk -G /dev/sdc
கட்டளை செயல்படுத்தப்பட்ட பிறகு, பகிர்வுகள் வட்டில் தோன்றும் /dev/sdc
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
└─sdc2 8:34 0 222,5G 0 part
sdd 8:48 0 931,5G 0 disk
செயல் முடிந்த பிறகு, வட்டில் உள்ள கணினியில் உள்ள பகிர்வுகள் /dev/sdc
முடிவு செய்யப்படவில்லை, பின்னர் பகிர்வு அட்டவணையை மீண்டும் படிக்க கட்டளையை இயக்குகிறோம்.
sfdisk -R /dev/sdc
தற்போதைய வட்டுகள் MBR அட்டவணையைப் பயன்படுத்தினால், தகவலை 2 TB ஐ விட பெரிய வட்டுகளுக்கு மாற்ற வேண்டும் என்றால், புதிய வட்டுகளில் நீங்கள் biosboot பகிர்வைப் பயன்படுத்தி கைமுறையாக GPT பகிர்வை உருவாக்க வேண்டும். இந்த வழக்கு இந்த கட்டுரையின் பகுதி 2 இல் விவாதிக்கப்படும்.
3. புதிய வட்டின் பகிர்வுகளை அணிவரிசையில் சேர்த்தல்
தொடர்புடைய வரிசைகளில் வட்டு பகிர்வுகளைச் சேர்ப்போம்.
mdadm /dev/md126 --add /dev/sdc1
mdadm /dev/md127 --add /dev/sdc2
பிரிவுகள் சேர்க்கப்பட்டுள்ளதா என்பதை நாங்கள் சரிபார்க்கிறோம்.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
இதற்குப் பிறகு, வரிசைகள் ஒத்திசைக்க காத்திருக்கிறோம்.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[==>..................] recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
பயன்பாட்டைப் பயன்படுத்தி ஒத்திசைவு செயல்முறையை நீங்கள் தொடர்ந்து கண்காணிக்கலாம் watch
.
watch -n 2 cat /proc/mdstat
அளவுரு -n
எந்த வினாடிகளில் எந்த இடைவெளியில் கட்டளையை செயல்படுத்த வேண்டும் என்பதைக் குறிப்பிடுகிறது.
அடுத்த மாற்று வட்டுக்கு 1 - 3 படிகளை மீண்டும் செய்யவும்.
ஒவ்வொரு வரிசையிலும் பயன்படுத்தப்படும் இரண்டாவது வட்டின் பகிர்வுகளை மோசமானதாகக் குறிக்கிறோம்.
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
தொகுதி சாதனப் பகிர்வுகளை நீக்குகிறது /dev/sdb
வரிசைகளில் இருந்து.
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
வரிசையிலிருந்து வட்டை அகற்றிய பிறகு, தொகுதி சாதனத் தகவல் இப்படி இருக்கும்.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
வட்டுகளை அகற்றிய பின் வரிசைகளின் நிலை.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2]
1047552 blocks super 1.2 [2/1] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
வட்டில் இருந்து MBR பகிர்வு அட்டவணையை நகலெடுக்கிறது /dev/sdс
வட்டுக்கு /dev/sdd
.
sfdisk -d /dev/sdс | sfdisk /dev/sdd
கட்டளை செயல்படுத்தப்பட்ட பிறகு, பகிர்வுகள் வட்டில் தோன்றும் /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
└─sdd2 8:50 0 222,5G 0 part
வரிசைகளில் வட்டு பகிர்வுகளைச் சேர்த்தல்.
mdadm /dev/md126 --add /dev/sdd1
mdadm /dev/md127 --add /dev/sdd2
பிரிவுகள் சேர்க்கப்பட்டுள்ளதா என்பதை நாங்கள் சரிபார்க்கிறோம்.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
இதற்குப் பிறகு, வரிசைகள் ஒத்திசைக்க காத்திருக்கிறோம்.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd1[3] sdc1[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdd2[3] sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
5. புதிய இயக்கிகளில் GRUB ஐ நிறுவுதல்
CentOS க்கு:
grub2-install /dev/sdX
டெபியன்/உபுண்டு:
grub-install /dev/sdX
எங்கே X
- தொகுதி சாதனத்தின் கடிதம். இந்த வழக்கில், நீங்கள் GRUB ஐ நிறுவ வேண்டும் /dev/sdc
и /dev/sdd
.
6. ரூட் பகிர்வின் கோப்பு முறைமை நீட்டிப்பு (ext4).
புதிய வட்டுகளில் /dev/sdc
и /dev/sdd
931.5 ஜிபி கிடைக்கிறது. பகிர்வு அட்டவணை சிறிய வட்டுகளிலிருந்து நகலெடுக்கப்பட்டதன் காரணமாக, பகிர்வுகள் /dev/sdc2
и /dev/sdd2
222.5 ஜிபி கிடைக்கிறது.
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
இது அவசியம்:
- ஒவ்வொரு வட்டுகளிலும் பகிர்வு 2ஐ நீட்டிக்கவும்,
- வரிசையை விரிவாக்கு md127,
- PV (உடல் அளவு) விரிவாக்கு
- LV (லாஜிக்கல்-வால்யூம்) vg0-ரூட்டை விரிவாக்கு,
- கோப்பு முறைமையை விரிவாக்குங்கள்.
பயன்பாட்டைப் பயன்படுத்துதல் பிரிந்தனர் பிரிவை விரிவாக்குவோம் /dev/sdc2
அதிகபட்ச மதிப்புக்கு. கட்டளையை இயக்கவும் parted /dev/sdc
(1) மற்றும் தற்போதைய பகிர்வு அட்டவணையை கட்டளையுடன் பார்க்கவும் p
(2).
நீங்கள் பார்க்க முடியும் என, பகிர்வு 2 இன் முடிவு 240 ஜிபியில் முடிவடைகிறது. கட்டளையுடன் பகிர்வை விரிவாக்குவோம் resizepart
2
, 2 என்பது பிரிவின் எண்ணிக்கை (3). டிஜிட்டல் வடிவத்தில் மதிப்பைக் குறிப்பிடுகிறோம், எடுத்துக்காட்டாக 1000 ஜிபி, அல்லது வட்டு பங்கின் குறிப்பைப் பயன்படுத்தவும் - 100%. பகிர்வில் புதிய அளவு (4) உள்ளதா என்பதை மீண்டும் சரிபார்க்கிறோம்.
வட்டுக்கு மேலே உள்ள படிகளை மீண்டும் செய்யவும் /dev/sdd
. பகிர்வுகளை விரிவாக்கிய பிறகு /dev/sdc2
и /dev/sdd2
930.5 ஜிபிக்கு சமமாக ஆனது.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
இதற்குப் பிறகு நாம் வரிசையை விரிவுபடுத்துகிறோம் md127 அதிகபட்சம்.
mdadm --grow /dev/md127 --size=max
வரிசை விரிவடைந்துள்ளதா என்பதை நாங்கள் சரிபார்க்கிறோம். இப்போது அதன் அளவு 930.4 ஜிபி ஆகிவிட்டது.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
நீட்டிப்பை நீட்டித்தல் உடல் அளவு. விரிவாக்குவதற்கு முன், PV இன் தற்போதைய நிலையைச் சரிபார்ப்போம்.
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [222,40 GiB / 0 free]
Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0 ]
பார்க்க முடியும் என, பி.வி /dev/md127
222.4 ஜிபி இடத்தைப் பயன்படுத்துகிறது.
பின்வரும் கட்டளையுடன் PV ஐ விரிவுபடுத்துகிறோம்.
pvresize /dev/md127
PV விரிவாக்கத்தின் முடிவைச் சரிபார்க்கிறது.
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [930,38 GiB / 707,98 GiB free]
Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0 ]
விரிவடைகிறது தருக்க அளவு. விரிவாக்குவதற்கு முன், LV (1) இன் தற்போதைய நிலையைச் சரிபார்ப்போம்.
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<206,41 GiB] inherit
LV /dev/vg0/root
206.41 ஜிபி பயன்படுத்துகிறது.
பின்வரும் கட்டளை (2) மூலம் எல்வியை விரிவுபடுத்துகிறோம்.
lvextend -l +100%FREE /dev/mapper/vg0-root
முடிக்கப்பட்ட செயலை நாங்கள் சரிபார்க்கிறோம் (3).
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<914,39 GiB] inherit
நீங்கள் பார்க்க முடியும் என, எல்வியை விரிவாக்கிய பிறகு, ஆக்கிரமிக்கப்பட்ட வட்டு இடத்தின் அளவு 914.39 ஜிபி ஆனது.
எல்வி அளவு அதிகரித்துள்ளது (4), ஆனால் கோப்பு முறைமை இன்னும் 204 ஜிபி (5) ஆக்கிரமித்துள்ளது.
1. கோப்பு முறைமையை விரிவாக்குவோம்.
resize2fs /dev/mapper/vg0-root
கட்டளை செயல்படுத்தப்பட்ட பிறகு, கோப்பு முறைமையின் அளவை சரிபார்க்கிறோம்.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,5M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 900G 1,3G 860G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
ரூட் கோப்பு முறைமையின் அளவு 900 ஜிபி ஆக அதிகரிக்கும். படிகளை முடித்த பிறகு, நீங்கள் பழைய வட்டுகளை அகற்றலாம்.
வழக்கு 2: சிறிய வட்டுகளை பெரிய வட்டுகளுடன் மாற்றுதல் (2TB க்கும் அதிகமாக)
அமைப்பு: தகவலைப் பாதுகாக்கும் போது தற்போதைய வட்டுகளை பெரிய வட்டுகளுடன் (2 x 3TB) மாற்றவும். இந்த நிலையில், எங்களிடம் 2 x 240 GB SSD (RAID-1) டிஸ்க்குகள் நிறுவப்பட்டுள்ளன, மேலும் 2 x 3 TB SATA டிஸ்க்குகள் கணினியை மாற்ற வேண்டும். தற்போதைய வட்டுகள் MBR பகிர்வு அட்டவணையைப் பயன்படுத்துகின்றன. புதிய வட்டுகள் 2 TB க்கும் அதிகமான திறன் கொண்டவை என்பதால், MBR ஆனது 2 TB ஐ விட பெரிய வட்டுகளுடன் வேலை செய்ய முடியாது என்பதால், அவை GPT அட்டவணையைப் பயன்படுத்த வேண்டும்.
தற்போதைய வட்டு அமைப்பைப் பார்ப்போம்.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
sdd 8:48 0 2,7T 0 disk
வட்டில் பயன்படுத்தப்படும் பகிர்வு அட்டவணையை சரிபார்ப்போம் /dev/sda
.
[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos
வட்டில் /dev/sdb
இதேபோன்ற பகிர்வு அட்டவணை பயன்படுத்தப்படுகிறது. கணினியில் பயன்படுத்தப்பட்ட வட்டு இடத்தை சரிபார்க்கலாம்.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,5M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
நீங்கள் பார்க்க முடியும் என, கோப்பு முறைமையின் ரூட் 204 ஜிபி எடுக்கும். மென்பொருள் RAID வரிசையின் தற்போதைய நிலையைச் சரிபார்க்கலாம்.
1. GPT பகிர்வு அட்டவணையை நிறுவுதல் மற்றும் வட்டு பகிர்வு
துறை வாரியாக வட்டு அமைப்பைச் சரிபார்ப்போம்.
[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags:
Номер Начало Конец Размер Тип Файловая система Флаги
1 1049kB 1076MB 1075MB primary загрузочный, raid
2 1076MB 240GB 239GB primary raid
புதிய 3TB வட்டில் நாம் 3 பகிர்வுகளை உருவாக்க வேண்டும்:
- பிரிவில்
bios_grub
GPT BIOS இணக்கத்தன்மைக்கான 2MiB அளவு, - RAID வரிசைக்கான பகிர்வு ஏற்றப்படும்
/boot
. - RAID வரிசைக்கான பகிர்வு இருக்கும் எல்வி ரூட் и எல்வி இடமாற்று.
பயன்பாட்டை நிறுவுதல் பிரிந்தனர் அணி yum install -y parted
(CentOS க்கு), apt install -y parted
(டெபியன்/உபுண்டுவிற்கு).
பயன்படுத்துகிறது பிரிந்தனர் வட்டை பிரிக்க பின்வரும் கட்டளைகளை இயக்குவோம்.
கட்டளையை இயக்கவும் parted /dev/sdc
மற்றும் வட்டு தளவமைப்பு எடிட்டிங் பயன்முறைக்குச் செல்லவும்.
GPT பகிர்வு அட்டவணையை உருவாக்கவும்.
(parted) mktable gpt
1 பிரிவை உருவாக்கவும் bios_grub
பிரிவு மற்றும் அதற்கு ஒரு கொடியை அமைக்கவும்.
(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on
பகிர்வு 2 ஐ உருவாக்கி அதற்கு ஒரு கொடியை அமைக்கவும். பகிர்வு ஒரு RAID வரிசைக்கு ஒரு தொகுதியாகப் பயன்படுத்தப்படும் மற்றும் ஏற்றப்படும் /boot
.
(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on
நாங்கள் 3வது பிரிவை உருவாக்குகிறோம், இது எல்விஎம் இருக்கும் வரிசைத் தொகுதியாகவும் பயன்படுத்தப்படும்.
(parted) mkpart primary 1028MiB 100%
இந்த வழக்கில், கொடியை அமைக்க வேண்டிய அவசியமில்லை, ஆனால் தேவைப்பட்டால், அதை பின்வரும் கட்டளையுடன் அமைக்கலாம்.
(parted) set 3 raid on
உருவாக்கப்பட்ட அட்டவணையை நாங்கள் சரிபார்க்கிறோம்.
(parted) p
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags:
Номер Начало Конец Размер Файловая система Имя Флаги
1 1049kB 3146kB 2097kB primary bios_grub
2 3146kB 1077MB 1074MB primary загрузочный
3 1077MB 3001GB 3000GB primary
வட்டுக்கு ஒரு புதிய ரேண்டம் GUID ஐ ஒதுக்குகிறோம்.
sgdisk -G /dev/sdd
2. வரிசைகளில் இருந்து முதல் வட்டின் பகிர்வுகளை நீக்குதல்
வரிசையின் நிலையைச் சரிபார்க்கிறது
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
கணினி 2 வரிசைகளைப் பயன்படுத்துகிறது: md126 (மவுண்ட் பாயிண்ட் /பூட்) - கொண்டுள்ளது /dev/sda1
и /dev/sdb1
, md127
(LVM க்கான swap
மற்றும் கோப்பு முறைமையின் ரூட்) - கொண்டுள்ளது /dev/sda2
и /dev/sdb2
.
ஒவ்வொரு வரிசையிலும் பயன்படுத்தப்படும் முதல் வட்டின் பகிர்வுகளை மோசமானதாகக் குறிக்கிறோம்.
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
தொகுதி சாதனப் பகிர்வுகளை நீக்குகிறது /dev/sda
வரிசைகளில் இருந்து.
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
வட்டை அகற்றிய பின் வரிசையின் நிலையைச் சரிபார்க்கிறது.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
3. புதிய வட்டின் பகிர்வுகளை அணிவரிசையில் சேர்த்தல்
அடுத்த கட்டம் புதிய வட்டின் பகிர்வுகளை ஒத்திசைவுக்கான அணிகளில் சேர்ப்பதாகும். வட்டு தளவமைப்பின் தற்போதைய நிலையைப் பார்ப்போம்.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
└─sdc3 8:35 0 2,7T 0 part
sdd 8:48 0 2,7T 0 disk
பிரிவில் /dev/sdc1
அது ஆகிறது bios_grub
பிரிவு மற்றும் வரிசைகளை உருவாக்குவதில் ஈடுபடவில்லை. வரிசைகள் மட்டுமே பயன்படுத்தும் /dev/sdc2
и /dev/sdc3
. இந்த பிரிவுகளை தொடர்புடைய வரிசைகளில் சேர்க்கிறோம்.
mdadm /dev/md126 --add /dev/sdc2
mdadm /dev/md127 --add /dev/sdc3
பின்னர் வரிசை ஒத்திசைக்க காத்திருக்கிறோம்.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc2[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc3[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[>....................] recovery = 0.2% (619904/233206784) finish=31.2min speed=123980K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
அணிவரிசையில் பகிர்வுகளைச் சேர்த்த பிறகு வட்டு பகிர்வு.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
4. அணிவரிசைகளிலிருந்து இரண்டாவது வட்டின் பகிர்வுகளை நீக்குதல்
ஒவ்வொரு வரிசையிலும் பயன்படுத்தப்படும் இரண்டாவது வட்டின் பகிர்வுகளை மோசமானதாகக் குறிக்கிறோம்.
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
தொகுதி சாதனப் பகிர்வுகளை நீக்குகிறது /dev/sda
வரிசைகளில் இருந்து.
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
5. GPT தளவமைப்பு அட்டவணையை நகலெடுத்து, வரிசையை ஒத்திசைக்கவும்
GPT மார்க்அப் அட்டவணையை நகலெடுக்க, நாங்கள் பயன்பாட்டைப் பயன்படுத்துவோம் sgdisk
, இது வட்டு பகிர்வுகள் மற்றும் GPT அட்டவணையுடன் வேலை செய்வதற்கான தொகுப்பில் சேர்க்கப்பட்டுள்ளது - gdisk
.
நிறுவல் gdisk
CentOS க்கு:
yum install -y gdisk
நிறுவல் gdisk
Debian/Ubuntuக்கு:
apt install -y gdisk
எச்சரிக்கை: GPTக்கு первым இயக்கி சுட்டிக்காட்டப்படுகிறது எதன் மீது மார்க்அப்பை நகலெடுக்கவும், இரண்டாவது வட்டு வட்டைக் குறிக்கிறது எதிலிருந்து மார்க்அப்பை நகலெடுக்கவும். நீங்கள் வட்டுகளை கலக்கினால், ஆரம்பத்தில் நல்ல பகிர்வு மேலெழுதப்பட்டு அழிக்கப்படும்.
GPT மார்க்அப் அட்டவணையை நகலெடுக்கவும்.
sgdisk -R /dev/sdd /dev/sdc
ஒரு அட்டவணையை வட்டுக்கு மாற்றிய பின் வட்டு பகிர்வு /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
└─sdd3 8:51 0 2,7T 0 part
அடுத்து, மென்பொருள் RAID வரிசைகளில் பங்கேற்கும் ஒவ்வொரு பகிர்வையும் சேர்க்கிறோம்.
mdadm /dev/md126 --add /dev/sdd2
mdadm /dev/md127 --add /dev/sdd3
வரிசை ஒத்திசைக்க காத்திருக்கிறோம்.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd2[3] sdc2[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 1/1 pages [4KB], 65536KB chunk
md127 : active raid1 sdd3[3] sdc3[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.0% (148224/233206784) finish=26.2min speed=148224K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
GPT பகிர்வை இரண்டாவது புதிய வட்டுக்கு நகலெடுத்த பிறகு, பகிர்வு இப்படி இருக்கும்.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
அடுத்து, புதிய வட்டுகளில் GRUB ஐ நிறுவவும்.
CentOS க்கான நிறுவல்:
grub2-install /dev/sdX
Debian/Ubuntu க்கான நிறுவல்:
grub-install /dev/sdX
எங்கே X
— ஓட்டு கடிதம், எங்கள் வழக்கில் இயக்கிகள் /dev/sdc
и /dev/sdd
.
வரிசை பற்றிய தகவலை நாங்கள் புதுப்பிக்கிறோம்.
CentOS க்கு:
mdadm --detail --scan --verbose > /etc/mdadm.conf
டெபியன்/உபுண்டு:
echo "DEVICE partitions" > /etc/mdadm/mdadm.conf
mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf
படத்தைப் புதுப்பிக்கிறது initrd
:
CentOS க்கு:
dracut -f -v --regenerate-all
டெபியன்/உபுண்டு:
update-initramfs -u -k all
நாங்கள் GRUB கட்டமைப்பை மேம்படுத்துகிறோம்.
CentOS க்கு:
grub2-mkconfig -o /boot/grub2/grub.cfg
டெபியன்/உபுண்டு:
update-grub
படிகளை முடித்த பிறகு, பழைய வட்டுகளை அகற்றலாம்.
6. ரூட் பகிர்வின் கோப்பு முறைமை நீட்டிப்பு (ext4).
கணினியை 2 x 3TB வட்டுகளுக்கு (RAID-1) மாற்றிய பின் கோப்பு முறைமை விரிவாக்கத்திற்கு முன் வட்டு பகிர்வு.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
இப்போது பிரிவுகள் /dev/sdc3
и /dev/sdd3
2.7 TB ஆக்கிரமித்துள்ளது. GPT அட்டவணையுடன் புதிய வட்டு தளவமைப்பை நாங்கள் உருவாக்கியதால், பகிர்வு 3 இன் அளவு உடனடியாக அதிகபட்ச வட்டு இடத்திற்கு அமைக்கப்பட்டது; இந்த விஷயத்தில், பகிர்வை விரிவாக்க வேண்டிய அவசியமில்லை.
இது அவசியம்:
- வரிசையை விரிவாக்கு md126,
- PV (உடல் அளவு) விரிவாக்கு
- LV (லாஜிக்கல்-வால்யூம்) vg0-ரூட்டை விரிவாக்கு,
- கோப்பு முறைமையை விரிவாக்குங்கள்.
1. வரிசையை விரிவாக்குங்கள் md126
அதிகபட்சம்.
mdadm --grow /dev/md126 --size=max
வரிசை விரிவாக்கத்திற்குப் பிறகு md126
ஆக்கிரமிக்கப்பட்ட இடத்தின் அளவு 2.7 TB ஆக அதிகரித்துள்ளது.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
விரிவடைகிறது உடல் அளவு.
விரிவாக்குவதற்கு முன், ஆக்கிரமிக்கப்பட்ட இடத்தின் தற்போதைய மதிப்பைச் சரிபார்க்கவும் PV /dev/md126
.
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- 222,40g 0
பின்வரும் கட்டளையுடன் PV ஐ விரிவுபடுத்துகிறோம்.
pvresize /dev/md126
முடிக்கப்பட்ட செயலை நாங்கள் சரிபார்க்கிறோம்.
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- <2,73t 2,51t
விரிவடைகிறது தருக்க தொகுதி vg0-root.
PVயை விரிவுபடுத்திய பிறகு, ஆக்கிரமிக்கப்பட்ட இடத்தை VG சரிபார்க்கவும்.
[root@localhost ~]# vgs
VG #PV #LV #SN Attr VSize VFree
vg0 1 2 0 wz--n- <2,73t 2,51t
LV ஆக்கிரமித்துள்ள இடத்தைச் சரிபார்ப்போம்.
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- <206,41g
swap vg0 -wi-ao---- <16,00g
vg0-root தொகுதி 206.41 GB ஆக்கிரமித்துள்ளது.
எல்வியை அதிகபட்ச வட்டு இடத்திற்கு விரிவுபடுத்துகிறோம்.
lvextend -l +100%FREE /dev/mapper/vg0-root
விரிவாக்கத்திற்குப் பிறகு எல்வி இடத்தைச் சரிபார்க்கிறது.
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- 2,71t
swap vg0 -wi-ao---- <16,00g
கோப்பு முறைமையை விரிவுபடுத்துகிறது (ext4).
கோப்பு முறைமையின் தற்போதைய அளவை சரிபார்க்கவும்.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,4G 192G 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
LV விரிவாக்கத்திற்குப் பிறகு தொகுதி /dev/mapper/vg0-root 204 GB ஆக்கிரமித்துள்ளது.
கோப்பு முறைமையை விரிவுபடுத்துகிறது.
resize2fs /dev/mapper/vg0-root
கோப்பு முறைமையை விரிவாக்கிய பின் அதன் அளவைச் சரிபார்க்கவும்.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 2,7T 1,4G 2,6T 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
முழு தொகுதியையும் உள்ளடக்கும் வகையில் கோப்பு முறைமை அளவு அதிகரிக்கப்பட்டுள்ளது.
ஆதாரம்: www.habr.com