سلام و ټولو ته. د نوي کورس ګروپ د پیل په ماښام
دا مقاله به د ډیسکونو ځای په ځای کولو او د سرې او فایل سیسټم نور پراخولو سره د لوی ظرفیت نوي ډیسکونو ته د معلوماتو لیږدولو 2 قضیې په پام کې ونیسي. لومړۍ قضیه به د ورته MBR/MBR یا GPT/GPT تقسیم کولو سره د ډیسکونو ځای په ځای کولو اندیښنه ولري ، دویمه قضیه د 2 TB څخه ډیر ظرفیت لرونکي ډیسکونو سره د MBR تقسیم کولو سره د ډیسکونو ځای په ځای کولو اندیښنه لري ، کوم چې تاسو به یې نصبولو ته اړتیا ولرئ. د بایوسبوټ ویش سره د GPT برخه. په دواړو حالتونو کې، هغه ډیسکونه چې موږ یې ډاټا لیږدوو لا دمخه په سرور کې نصب شوي. د فایل سیسټم د روټ ویش لپاره کارول کیږي ext4.
قضیه 1: د لوی ډیسکونو سره د کوچني ډیسکونو ځای په ځای کول (تر 2TB پورې)
دنده: اوسني ډیسکونه د لوی ډیسکونو سره بدل کړئ (تر 2 TB پورې) د معلوماتو لیږد سره. په دې حالت کې، موږ د سیسټم نصب سره 2 x 240 GB SSD (RAID-1) ډیسکونه لرو او د 2 x 1 TB SATA ډیسکونه چې سیسټم یې لیږدولو ته اړتیا لري.
راځئ چې د اوسني ډیسک ترتیب وګورو.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
راځئ چې اوس مهال کارول شوي فایل سیسټم ځای وګورو.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,6M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
د ډیسکونو بدلولو دمخه د فایل سیسټم اندازه 204 GB ده، د 2 md126 سافټویر سرې کارول کیږي، کوم چې په کې نصب شوي. /boot
и md127
، کوم چې په توګه کارول کیږي فزیکي حجم د VG ګروپ لپاره vg0.
1. له صفونو څخه د ډیسک ویشونه لرې کول
د صف حالت چک کول
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
سیسټم دوه صفونه کاروي: md126
(ماونټ ټکی /boot
) - د یوې برخې څخه جوړه ده /dev/sda1
и /dev/sdb1
, md127
(د دې لپاره LVM ماولوله او د فایل سیسټم ریښه) - عبارت دی له /dev/sda2
и /dev/sdb2
.
موږ د لومړي ډیسک برخې په نښه کوو چې په هر صف کې کارول کیږي خراب.
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
موږ له صفونو څخه د /dev/sda بلاک وسیلې برخې لرې کوو.
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
وروسته له دې چې موږ له صف څخه ډیسک لرې کړو، د بلاک آلې معلومات به داسې ښکاري.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
sdd 8:48 0 931,5G 0 disk
د ډیسکونو له لرې کولو وروسته د صفونو حالت.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
2. د ویش جدول نوي ډیسک ته کاپي کړئ
تاسو کولی شئ د لاندې کمانډ سره په ډیسک کې د کارول شوي برخې میز چیک کړئ.
fdisk -l /dev/sdb | grep 'Disk label type'
د MBR لپاره محصول به دا وي:
Disk label type: dos
د GPT لپاره:
Disk label type: gpt
د MBR لپاره د ویش جدول کاپي کول:
sfdisk -d /dev/sdb | sfdisk /dev/sdc
په دې ټیم کې первым ډیسک ښودل شوی с کوم چې مارک اپ کاپي شوی، دوهم - چیرته کاپي
توجه: د GPT لپاره первым ډیسک ښودل شوی په کوم باندې کاپي مارک اپ، دوهم ډیسک ډیسک ته اشاره کوي له کوم څخه کاپي مارک اپ که تاسو ډیسکونه ګډ کړئ ، نو په پیل کې ښه برخه به له سره لیکل کیږي او ویجاړ شي.
د GPT لپاره د ترتیب جدول کاپي کول:
sgdisk -R /dev/sdс /dev/sdb
بیا، ډیسک ته یو تصادفي UUID وټاکئ (د GPT لپاره).
sgdisk -G /dev/sdc
وروسته له دې چې کمانډ اجرا شي، ویشونه باید په ډیسک کې ښکاره شي /dev/sdc
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
└─sdc2 8:34 0 222,5G 0 part
sdd 8:48 0 931,5G 0 disk
که، د عمل ترسره کولو وروسته، په ډیسک کې په سیسټم کې ویشونه /dev/sdc
بې پرې، بیا موږ د برخې جدول د بیا لوستلو کمانډ اجرا کوو.
sfdisk -R /dev/sdc
که اوسني ډیسکونه د MBR جدول کاروي او معلومات باید د 2 TB څخه لوی ډیسکونو ته لیږدول شي ، نو په نوي ډیسکونو کې تاسو اړتیا لرئ د بایسبوټ برخې په کارولو سره په لاسي ډول د GPT تقسیم کول رامینځته کړئ. دا قضیه به د دې مقالې په 2 برخه کې بحث وشي.
3. په صف کې د نوي ډیسک برخې اضافه کول
راځئ چې اړوندو صفونو ته د ډیسک برخې اضافه کړو.
mdadm /dev/md126 --add /dev/sdc1
mdadm /dev/md127 --add /dev/sdc2
موږ ګورو چې برخې اضافه شوي.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
له دې وروسته، موږ د سرونو د همغږۍ لپاره انتظار کوو.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[==>..................] recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
تاسو کولی شئ په دوامداره توګه د یوټیلیټ په کارولو سره د همغږي کولو پروسې څارنه وکړئ watch
.
watch -n 2 cat /proc/mdstat
پارسيم -n
په ثانیو کې په کوم وقفو کې مشخص کوي چې کمانډ باید د پرمختګ چک کولو لپاره اجرا شي.
د راتلونکي بدیل ډیسک لپاره 1 - 3 مرحلې تکرار کړئ.
موږ د دوهم ډیسک برخې په نښه کوو چې په هر صف کې کارول کیږي خراب.
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
د بلاک وسیلې برخې لرې کول /dev/sdb
له صفونو څخه.
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
وروسته له دې چې موږ له صف څخه ډیسک لرې کړو، د بلاک آلې معلومات به داسې ښکاري.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
د ډیسکونو له لرې کولو وروسته د صفونو حالت.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc1[2]
1047552 blocks super 1.2 [2/1] [U_]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
bitmap: 1/2 pages [4KB], 65536KB chunk
unused devices: <none>
د ډیسک څخه د MBR ویش جدول کاپي کول /dev/sdс
ډیسک ته /dev/sdd
.
sfdisk -d /dev/sdс | sfdisk /dev/sdd
وروسته له دې چې کمانډ اجرا شي، ویشونه باید په ډیسک کې ښکاره شي /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
└─sdd2 8:50 0 222,5G 0 part
په صفونو کې د ډیسک برخې اضافه کول.
mdadm /dev/md126 --add /dev/sdd1
mdadm /dev/md127 --add /dev/sdd2
موږ ګورو چې برخې اضافه شوي.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
له دې وروسته، موږ د سرونو د همغږۍ لپاره انتظار کوو.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd1[3] sdc1[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdd2[3] sdc2[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
5. په نوي ډرایو کې د GRUB نصب کول
د CentOS لپاره:
grub2-install /dev/sdX
دبیان/اوبنټو لپاره:
grub-install /dev/sdX
چې X
- د بلاک وسیلې لیک. په دې حالت کې، تاسو اړتیا لرئ چې GRUB نصب کړئ /dev/sdc
и /dev/sdd
.
6. د روټ برخې د فایل سیسټم توسیع (ext4).
په نوي ډیسکونو کې /dev/sdc
и /dev/sdd
931.5 GB شتون لري. د دې حقیقت له امله چې د ویش جدول د وړو ډیسکونو څخه کاپي شوی و، پارشنونه /dev/sdc2
и /dev/sdd2
222.5 GB شتون لري.
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
دا لازمي دی:
- په هر ډیسک کې ویش 2 پراخ کړئ،
- پراخه لړۍ md127،
- PV پراخ کړئ (فزیکي حجم)
- LV پراخ کړئ (منطقي حجم) vg0-root،
- د فایل سیسټم پراخ کړئ.
د افادیت په کارولو سره پارټ راځئ چې برخه پراخه کړو /dev/sdc2
تر اعظمي ارزښت پورې. کمانډ اجرا کړئ parted /dev/sdc
(1) او د کمانډ سره د اوسني ویش میز وګورئ p
(2).
لکه څنګه چې تاسو لیدلی شئ، د ویش 2 پای په 240 GB کې پای ته رسیږي. راځئ چې د کمانډ سره ویش پراخه کړو resizepart
2
، چیرې چې 2 د برخې شمیره ده (3). موږ ارزښت په ډیجیټل بڼه کې په ګوته کوو، د بیلګې په توګه 1000 GB، یا د ډیسک شریکولو اشاره وکاروئ - 100٪. موږ بیا ګورو چې ویش نوې اندازه لري (4).
د ډیسک لپاره پورته ګامونه تکرار کړئ /dev/sdd
. د برخو پراخولو وروسته /dev/sdc2
и /dev/sdd2
د 930.5 GB سره برابر شو.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
له دې وروسته موږ صف پراخه کوو md127 تر اعظمي حده.
mdadm --grow /dev/md127 --size=max
موږ ګورو چې صف پراخه شوی. اوس یې اندازه 930.4 GB ته رسیدلې ده.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 931,5G 0 disk
├─sdc1 8:33 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc2 8:34 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 931,5G 0 disk
├─sdd1 8:49 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd2 8:50 0 930,5G 0 part
└─md127 9:127 0 930,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
د تمدید پراخول فزیکي حجم. د پراخولو دمخه، راځئ چې د PV اوسنی حالت وګورو.
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [222,40 GiB / 0 free]
Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0 ]
لکه څنګه چې لیدل کیدی شي، PV /dev/md127
د 222.4 GB ځای کاروي.
موږ د لاندې کمانډ سره PV پراخوو.
pvresize /dev/md127
د PV توسعې پایلې چک کول.
[root@localhost ~]# pvscan
PV /dev/md127 VG vg0 lvm2 [930,38 GiB / 707,98 GiB free]
Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0 ]
پراخول منطقي حجم. د پراخولو دمخه، راځئ چې د LV اوسنی حالت وګورو (1).
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<206,41 GiB] inherit
LV /dev/vg0/root
206.41 GB کاروي.
موږ د لاندې کمانډ سره LV پراخوو (2).
lvextend -l +100%FREE /dev/mapper/vg0-root
موږ بشپړ شوی عمل چیک کوو (3).
[root@localhost ~]# lvscan
ACTIVE '/dev/vg0/swap' [<16,00 GiB] inherit
ACTIVE '/dev/vg0/root' [<914,39 GiB] inherit
لکه څنګه چې تاسو لیدلی شئ، د LV پراخولو وروسته، د نیول شوي ډیسک ځای مقدار 914.39 GB شو.
د LV حجم (4) زیات شوی، مګر د فایل سیسټم لاهم 204 GB (5) نیسي.
1. راځئ چې د فایل سیسټم پراخ کړو.
resize2fs /dev/mapper/vg0-root
د کمانډ اجرا کیدو وروسته، موږ د فایل سیسټم اندازه ګورو.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9,5M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 900G 1,3G 860G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 6,3G 0 6,3G 0% /run/user/0
د روټ فایل سیسټم اندازه به 900 GB ته لوړه شي. د مرحلو بشپړولو وروسته ، تاسو کولی شئ زاړه ډیسکونه لرې کړئ.
قضیه 2: د لوی ډیسکونو سره د کوچني ډیسکونو ځای په ځای کول (له 2TB څخه ډیر)
دنده: اوسني ډیسکونه د لوی ډیسکونو سره بدل کړئ (2 x 3TB) د معلوماتو ساتلو پرمهال. په دې حالت کې، موږ د نصب شوي سیسټم سره 2 x 240 GB SSD (RAID-1) ډیسکونه لرو او د 2 x 3 TB SATA ډیسکونه چې سیسټم یې لیږدولو ته اړتیا لري. اوسني ډیسکونه د MBR ویش جدول کاروي. څرنګه چې نوي ډیسکونه د 2 TB څخه ډیر ظرفیت لري، دوی به د GPT میز کارولو ته اړتیا ولري، ځکه چې MBR نشي کولی د 2 TB څخه لوی ډیسکونو سره کار وکړي.
راځئ چې د اوسني ډیسک ترتیب وګورو.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sda2 8:2 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
sdd 8:48 0 2,7T 0 disk
راځئ چې په ډیسک کې کارول شوي د ویش میز وګورئ /dev/sda
.
[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos
په ډیسک کې /dev/sdb
د ورته ویش جدول کارول کیږي. راځئ چې په سیسټم کې د کارول شوي ډیسک ځای وګورو.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,5M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,3G 192G 1% /
/dev/md126 1007M 120M 837M 13% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
لکه څنګه چې تاسو لیدلی شئ، د فایل سیسټم ریښه 204 GB نیسي. راځئ چې د سافټویر RAID صف اوسنی حالت وګورو.
1. د GPT د ویش میز نصبول او د ډیسک ویشل
راځئ چې د سکټور لخوا د ډیسک ترتیب وګورو.
[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags:
Номер Начало Конец Размер Тип Файловая система Флаги
1 1049kB 1076MB 1075MB primary загрузочный, raid
2 1076MB 240GB 239GB primary raid
په نوي 3TB ډیسک کې موږ به د 3 برخې جوړولو ته اړتیا ولرو:
- برخه
bios_grub
د GPT BIOS مطابقت لپاره د 2MiB اندازه، - د RAID سرې لپاره برخه چې په کې به نصب شي
/boot
. - د RAID صف لپاره ویش چې هلته به وي LV ريښه и د LV تبادله.
د اسانتیا نصبول پارټ ډله yum install -y parted
(د CentOS لپاره) apt install -y parted
(دبیان / اوبنټو لپاره).
کارول پارټ راځئ چې د ډیسک د ویشلو لپاره لاندې کمانډونه پرمخ یوسو.
کمانډ اجرا کړئ parted /dev/sdc
او د ډیسک ترتیب ترمیم حالت ته لاړشئ.
د GPT د ویش جدول جوړ کړئ.
(parted) mktable gpt
1 برخه جوړه کړئ bios_grub
برخه او د هغې لپاره بیرغ ترتیب کړئ.
(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on
2 برخه جوړه کړئ او د هغې لپاره بیرغ ترتیب کړئ. تقسیم به د RAID صف لپاره د بلاک په توګه وکارول شي او نصب شي /boot
.
(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on
موږ دریمه برخه رامینځته کوو ، کوم چې به د سرې بلاک په توګه هم وکارول شي چیرې چې LVM به موقعیت ولري.
(parted) mkpart primary 1028MiB 100%
پدې حالت کې ، دا اړینه نده چې بیرغ تنظیم کړئ ، مګر که اړتیا وي ، دا د لاندې کمانډ سره تنظیم کیدی شي.
(parted) set 3 raid on
موږ جوړ شوی میز چیک کوو.
(parted) p
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags:
Номер Начало Конец Размер Файловая система Имя Флаги
1 1049kB 3146kB 2097kB primary bios_grub
2 3146kB 1077MB 1074MB primary загрузочный
3 1077MB 3001GB 3000GB primary
موږ ډیسک ته یو نوی تصادفي GUID ګمارو.
sgdisk -G /dev/sdd
2. له صفونو څخه د لومړي ډیسک برخې لرې کول
د صف حالت چک کول
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda1[0] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sda2[0] sdb2[1]
233206784 blocks super 1.2 [2/2] [UU]
bitmap: 0/2 pages [0KB], 65536KB chunk
unused devices: <none>
سیسټم 2 صفونه کاروي: md126 (ماونټ پوائنټ / بوټ) - مشتمل دی /dev/sda1
и /dev/sdb1
, md127
(د دې لپاره LVM swap
او د فایل سیسټم ریښه) - عبارت دی له /dev/sda2
и /dev/sdb2
.
موږ د لومړي ډیسک برخې په نښه کوو چې په هر صف کې کارول کیږي خراب.
mdadm /dev/md126 --fail /dev/sda1
mdadm /dev/md127 --fail /dev/sda2
د بلاک وسیلې برخې لرې کول /dev/sda
له صفونو څخه.
mdadm /dev/md126 --remove /dev/sda1
mdadm /dev/md127 --remove /dev/sda2
د ډیسک له لرې کولو وروسته د صف حالت چیک کول.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb1[1]
1047552 blocks super 1.2 [2/1] [_U]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
3. په صف کې د نوي ډیسک برخې اضافه کول
بل ګام دا دی چې د نوي ډیسک برخې برخې د همغږي کولو لپاره په صفونو کې اضافه کړئ. راځئ چې د ډیسک ترتیب اوسنی حالت وګورو.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
└─sdc3 8:35 0 2,7T 0 part
sdd 8:48 0 2,7T 0 disk
برخه /dev/sdc1
دا bios_grub
برخه او د صفونو په جوړولو کې دخیل ندي. صفونه به یوازې وکاروي /dev/sdc2
и /dev/sdc3
. موږ دا برخې په اړونده صفونو کې اضافه کوو.
mdadm /dev/md126 --add /dev/sdc2
mdadm /dev/md127 --add /dev/sdc3
بیا موږ د سرې ترکیب لپاره انتظار کوو.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdc2[2] sdb1[1]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md127 : active raid1 sdc3[2] sdb2[1]
233206784 blocks super 1.2 [2/1] [_U]
[>....................] recovery = 0.2% (619904/233206784) finish=31.2min speed=123980K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
د ډیسک تقسیم کول په صف کې د برخو اضافه کولو وروسته.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdb2 8:18 0 222,5G 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
4. له صفونو څخه د دوهم ډیسک برخې لرې کول
موږ د دوهم ډیسک برخې په نښه کوو چې په هر صف کې کارول کیږي خراب.
mdadm /dev/md126 --fail /dev/sdb1
mdadm /dev/md127 --fail /dev/sdb2
د بلاک وسیلې برخې لرې کول /dev/sda
له صفونو څخه.
mdadm /dev/md126 --remove /dev/sdb1
mdadm /dev/md127 --remove /dev/sdb2
5. د GPT ترتیب جدول کاپي کړئ او سرې همغږي کړئ
د GPT مارک اپ جدول کاپي کولو لپاره موږ به دا کار وکاروو sgdisk
، کوم چې د ډیسک برخې او GPT میز سره کار کولو لپاره په کڅوړه کې شامل دی - gdisk
.
د جوړولو gdisk
د CentOS لپاره:
yum install -y gdisk
د جوړولو gdisk
د Debian/Ubuntu لپاره:
apt install -y gdisk
توجه: د GPT لپاره первым ډیسک ښودل شوی په کوم باندې مارک اپ کاپي کړئ، دوهم ډیسک ډیسک ته اشاره کوي له کوم څخه مارک اپ کاپي کړئ. که تاسو ډیسکونه ګډ کړئ ، نو په پیل کې ښه برخه به له سره لیکل کیږي او ویجاړ شي.
د GPT مارک اپ جدول کاپي کړئ.
sgdisk -R /dev/sdd /dev/sdc
ډیسک ته د میز له لیږدولو وروسته د ډیسک تقسیم کول /dev/sdd
.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
└─sdd3 8:51 0 2,7T 0 part
بیا، موږ د سافټویر RAID صفونو کې برخه اخیستونکي هر پارشنونه اضافه کوو.
mdadm /dev/md126 --add /dev/sdd2
mdadm /dev/md127 --add /dev/sdd3
موږ د سرې د همغږي کولو په تمه یو.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdd2[3] sdc2[2]
1047552 blocks super 1.2 [2/2] [UU]
bitmap: 1/1 pages [4KB], 65536KB chunk
md127 : active raid1 sdd3[3] sdc3[2]
233206784 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.0% (148224/233206784) finish=26.2min speed=148224K/sec
bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>
دوهم نوي ډیسک ته د GPT برخې کاپي کولو وروسته ، ویش به داسې ښکاري.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part
└─sda2 8:2 0 222,5G 0 part
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 1G 0 part
└─sdb2 8:18 0 222,5G 0 part
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md126 9:126 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md127 9:127 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
بیا، په نوي ډیسکونو کې GRUB نصب کړئ.
د CentOS لپاره نصب کول:
grub2-install /dev/sdX
د Debian/Ubuntu لپاره نصب کول:
grub-install /dev/sdX
چې X
- د ډرایو لیک، زموږ په قضیه کې ډرایو /dev/sdc
и /dev/sdd
.
موږ د صف په اړه معلومات تازه کوو.
د CentOS لپاره:
mdadm --detail --scan --verbose > /etc/mdadm.conf
دبیان/اوبنټو لپاره:
echo "DEVICE partitions" > /etc/mdadm/mdadm.conf
mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf
د انځور تازه کول initrd
:
د CentOS لپاره:
dracut -f -v --regenerate-all
دبیان/اوبنټو لپاره:
update-initramfs -u -k all
موږ د GRUB ترتیب تازه کوو.
د CentOS لپاره:
grub2-mkconfig -o /boot/grub2/grub.cfg
دبیان/اوبنټو لپاره:
update-grub
د مرحلو بشپړولو وروسته، زاړه ډیسکونه لرې کیدی شي.
6. د روټ برخې د فایل سیسټم توسیع (ext4).
د ډیسک ویشل د فایل سیسټم پراخولو دمخه د سیسټم 2 x 3TB ډیسکونو (RAID-1) ته لیږدولو وروسته.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 222,4G 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
اوس برخې /dev/sdc3
и /dev/sdd3
2.7 TB قبضه کوي. له هغه وخته چې موږ د GPT جدول سره د ډیسک نوی ترتیب رامینځته کړی ، د برخې 3 اندازه سمدلاسه د ډیسک اعظمي حد ته ټاکل شوې وه؛ پدې حالت کې ، د برخې پراخولو ته اړتیا نشته.
دا لازمي دی:
- پراخه لړۍ md126،
- PV پراخ کړئ (فزیکي حجم)
- LV پراخ کړئ (منطقي حجم) vg0-root،
- د فایل سیسټم پراخ کړئ.
1. صف پراخه کړئ md126
تر اعظمي حده.
mdadm --grow /dev/md126 --size=max
د صف پراخولو وروسته md126
د نیول شوي ځای اندازه 2.7 TB ته لوړه شوې.
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
sdb 8:16 0 223,6G 0 disk
sdc 8:32 0 2,7T 0 disk
├─sdc1 8:33 0 2M 0 part
├─sdc2 8:34 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdc3 8:35 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
sdd 8:48 0 2,7T 0 disk
├─sdd1 8:49 0 2M 0 part
├─sdd2 8:50 0 1G 0 part
│ └─md127 9:127 0 1023M 0 raid1 /boot
└─sdd3 8:51 0 2,7T 0 part
└─md126 9:126 0 2,7T 0 raid1
├─vg0-root 253:0 0 206,4G 0 lvm /
└─vg0-swap 253:1 0 16G 0 lvm [SWAP]
پراخول فزیکي حجم.
د پراخولو دمخه، د اشغال شوي ځای اوسني ارزښت وګورئ PV /dev/md126
.
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- 222,40g 0
موږ د لاندې کمانډ سره PV پراخوو.
pvresize /dev/md126
موږ بشپړ شوي عمل چیک کوو.
[root@localhost ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/md126 vg0 lvm2 a-- <2,73t 2,51t
پراخول منطقي حجم vg0-root.
د PV پراخولو وروسته، راځئ چې اشغال شوی ځای VG وګورو.
[root@localhost ~]# vgs
VG #PV #LV #SN Attr VSize VFree
vg0 1 2 0 wz--n- <2,73t 2,51t
راځئ هغه ځای وګورو چې د LV لخوا نیول شوی.
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- <206,41g
swap vg0 -wi-ao---- <16,00g
د vg0-root حجم 206.41 GB لري.
موږ د ډیسک اعظمي ځای ته LV پراخوو.
lvextend -l +100%FREE /dev/mapper/vg0-root
د پراختیا وروسته د LV ځای چک کول.
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root vg0 -wi-ao---- 2,71t
swap vg0 -wi-ao---- <16,00g
د فایل سیسټم پراخول (ext4).
راځئ چې د فایل سیسټم اوسنی اندازه وګورو.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 204G 1,4G 192G 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
حجم /dev/mapper/vg0-root د LV پراخیدو وروسته 204 GB نیسي.
د فایل سیسټم پراخول.
resize2fs /dev/mapper/vg0-root
د پراخولو وروسته د فایل سیسټم اندازه چیک کول.
[root@localhost ~]# df -h
Файловая система Размер Использовано Дост Использовано% Cмонтировано в
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 9,6M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg0-root 2,7T 1,4G 2,6T 1% /
/dev/md127 1007M 141M 816M 15% /boot
tmpfs 3,2G 0 3,2G 0% /run/user/0
د فایل سیسټم اندازه د ټول حجم پوښلو لپاره لوړه شوې.
سرچینه: www.habr.com