په لینکس کې د لوی ډیسکونو سره کوچني ډیسکونه ځای په ځای کول

سلام و ټولو ته. د نوي کورس ګروپ د پیل په ماښام "د لینکس مدیر" موږ ګټور مواد خپاره کوو چې زموږ د زده کونکي لخوا لیکل شوي، په بیله بیا د کورس ښوونکي، د REG.RU کارپوریټ محصولاتو لپاره د تخنیکي مالتړ متخصص - رومن ټراوین.

دا مقاله به د ډیسکونو ځای په ځای کولو او د سرې او فایل سیسټم نور پراخولو سره د لوی ظرفیت نوي ډیسکونو ته د معلوماتو لیږدولو 2 قضیې په پام کې ونیسي. لومړۍ قضیه به د ورته MBR/MBR یا GPT/GPT تقسیم کولو سره د ډیسکونو ځای په ځای کولو اندیښنه ولري ، دویمه قضیه د 2 TB څخه ډیر ظرفیت لرونکي ډیسکونو سره د MBR تقسیم کولو سره د ډیسکونو ځای په ځای کولو اندیښنه لري ، کوم چې تاسو به یې نصبولو ته اړتیا ولرئ. د بایوسبوټ ویش سره د GPT برخه. په دواړو حالتونو کې، هغه ډیسکونه چې موږ یې ډاټا لیږدوو لا دمخه په سرور کې نصب شوي. د فایل سیسټم د روټ ویش لپاره کارول کیږي ext4.

قضیه 1: د لوی ډیسکونو سره د کوچني ډیسکونو ځای په ځای کول (تر 2TB پورې)

دنده: اوسني ډیسکونه د لوی ډیسکونو سره بدل کړئ (تر 2 TB پورې) د معلوماتو لیږد سره. په دې حالت کې، موږ د سیسټم نصب سره 2 x 240 GB SSD (RAID-1) ډیسکونه لرو او د 2 x 1 TB SATA ډیسکونه چې سیسټم یې لیږدولو ته اړتیا لري.

راځئ چې د اوسني ډیسک ترتیب وګورو.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sda2           8:2    0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
sdd              8:48   0 931,5G  0 disk  

راځئ چې اوس مهال کارول شوي فایل سیسټم ځای وګورو.

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                32G            0   32G            0% /dev
tmpfs                   32G            0   32G            0% /dev/shm
tmpfs                   32G         9,6M   32G            1% /run
tmpfs                   32G            0   32G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,3G  192G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  6,3G            0  6,3G            0% /run/user/0

د ډیسکونو بدلولو دمخه د فایل سیسټم اندازه 204 GB ده، د 2 md126 سافټویر سرې کارول کیږي، کوم چې په کې نصب شوي. /boot и md127، کوم چې په توګه کارول کیږي فزیکي حجم د VG ګروپ لپاره vg0.

1. له صفونو څخه د ډیسک ویشونه لرې کول

د صف حالت چک کول

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda2[0] sdb2[1]
      233206784 blocks super 1.2 [2/2] [UU]
      bitmap: 0/2 pages [0KB], 65536KB chunk

unused devices: <none>

سیسټم دوه صفونه کاروي: md126 (ماونټ ټکی /boot) - د یوې برخې څخه جوړه ده /dev/sda1 и /dev/sdb1, md127 (د دې لپاره LVM ماولوله او د فایل سیسټم ریښه) - عبارت دی له /dev/sda2 и /dev/sdb2.

موږ د لومړي ډیسک برخې په نښه کوو چې په هر صف کې کارول کیږي خراب.

mdadm /dev/md126 --fail /dev/sda1

mdadm /dev/md127 --fail /dev/sda2

موږ له صفونو څخه د /dev/sda بلاک وسیلې برخې لرې کوو.

mdadm /dev/md126 --remove /dev/sda1

mdadm /dev/md127 --remove /dev/sda2

وروسته له دې چې موږ له صف څخه ډیسک لرې کړو، د بلاک آلې معلومات به داسې ښکاري.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
sdd              8:48   0 931,5G  0 disk  

د ډیسکونو له لرې کولو وروسته د صفونو حالت.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdb1[1]
      1047552 blocks super 1.2 [2/1] [_U]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

2. د ویش جدول نوي ډیسک ته کاپي کړئ

تاسو کولی شئ د لاندې کمانډ سره په ډیسک کې د کارول شوي برخې میز چیک کړئ.

fdisk -l /dev/sdb | grep 'Disk label type'

د MBR لپاره محصول به دا وي:

Disk label type: dos

د GPT لپاره:

Disk label type: gpt

د MBR لپاره د ویش جدول کاپي کول:

sfdisk -d /dev/sdb | sfdisk /dev/sdc

په دې ټیم کې первым ډیسک ښودل شوی с کوم چې مارک اپ کاپي شوی، دوهم - چیرته کاپي

توجه: د GPT لپاره первым ډیسک ښودل شوی په کوم باندې کاپي مارک اپ، دوهم ډیسک ډیسک ته اشاره کوي له کوم څخه کاپي مارک اپ که تاسو ډیسکونه ګډ کړئ ، نو په پیل کې ښه برخه به له سره لیکل کیږي او ویجاړ شي.

د GPT لپاره د ترتیب جدول کاپي کول:

sgdisk -R /dev/sdс /dev/sdb

بیا، ډیسک ته یو تصادفي UUID وټاکئ (د GPT لپاره).


sgdisk -G /dev/sdc

وروسته له دې چې کمانډ اجرا شي، ویشونه باید په ډیسک کې ښکاره شي /dev/sdc.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
└─sdc2           8:34   0 222,5G  0 part  
sdd              8:48   0 931,5G  0 disk  

که، د عمل ترسره کولو وروسته، په ډیسک کې په سیسټم کې ویشونه /dev/sdc بې پرې، بیا موږ د برخې جدول د بیا لوستلو کمانډ اجرا کوو.

sfdisk -R /dev/sdc

که اوسني ډیسکونه د MBR جدول کاروي او معلومات باید د 2 TB څخه لوی ډیسکونو ته لیږدول شي ، نو په نوي ډیسکونو کې تاسو اړتیا لرئ د بایسبوټ برخې په کارولو سره په لاسي ډول د GPT تقسیم کول رامینځته کړئ. دا قضیه به د دې مقالې په 2 برخه کې بحث وشي.

3. په صف کې د نوي ډیسک برخې اضافه کول

راځئ چې اړوندو صفونو ته د ډیسک برخې اضافه کړو.

mdadm /dev/md126 --add /dev/sdc1

mdadm /dev/md127 --add /dev/sdc2

موږ ګورو چې برخې اضافه شوي.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  

له دې وروسته، موږ د سرونو د همغږۍ لپاره انتظار کوو.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc1[2] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc2[2] sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      [==>..................]  recovery = 10.6% (24859136/233206784) finish=29.3min speed=118119K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

تاسو کولی شئ په دوامداره توګه د یوټیلیټ په کارولو سره د همغږي کولو پروسې څارنه وکړئ watch.

watch -n 2 cat /proc/mdstat

پارسيم -n په ثانیو کې په کوم وقفو کې مشخص کوي چې کمانډ باید د پرمختګ چک کولو لپاره اجرا شي.

د راتلونکي بدیل ډیسک لپاره 1 - 3 مرحلې تکرار کړئ.

موږ د دوهم ډیسک برخې په نښه کوو چې په هر صف کې کارول کیږي خراب.

mdadm /dev/md126 --fail /dev/sdb1

mdadm /dev/md127 --fail /dev/sdb2

د بلاک وسیلې برخې لرې کول /dev/sdb له صفونو څخه.

mdadm /dev/md126 --remove /dev/sdb1

mdadm /dev/md127 --remove /dev/sdb2

وروسته له دې چې موږ له صف څخه ډیسک لرې کړو، د بلاک آلې معلومات به داسې ښکاري.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  

د ډیسکونو له لرې کولو وروسته د صفونو حالت.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc1[2]
      1047552 blocks super 1.2 [2/1] [U_]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc2[2]
      233206784 blocks super 1.2 [2/1] [U_]
      bitmap: 1/2 pages [4KB], 65536KB chunk

unused devices: <none>

د ډیسک څخه د MBR ویش جدول کاپي کول /dev/sdс ډیسک ته /dev/sdd.

sfdisk -d /dev/sdс | sfdisk /dev/sdd

وروسته له دې چې کمانډ اجرا شي، ویشونه باید په ډیسک کې ښکاره شي /dev/sdd.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
└─sdd2           8:50   0 222,5G  0 part  

په صفونو کې د ډیسک برخې اضافه کول.

mdadm /dev/md126 --add /dev/sdd1

mdadm /dev/md127 --add /dev/sdd2

موږ ګورو چې برخې اضافه شوي.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

له دې وروسته، موږ د سرونو د همغږۍ لپاره انتظار کوو.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdd1[3] sdc1[2]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdd2[3] sdc2[2]
      233206784 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.5% (1200000/233206784) finish=35.4min speed=109090K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

5. په نوي ډرایو کې د GRUB نصب کول

د CentOS لپاره:

grub2-install /dev/sdX

دبیان/اوبنټو لپاره:

grub-install /dev/sdX

چې X - د بلاک وسیلې لیک. په دې حالت کې، تاسو اړتیا لرئ چې GRUB نصب کړئ /dev/sdc и /dev/sdd.

6. د روټ برخې د فایل سیسټم توسیع (ext4).

په نوي ډیسکونو کې /dev/sdc и /dev/sdd 931.5 GB شتون لري. د دې حقیقت له امله چې د ویش جدول د وړو ډیسکونو څخه کاپي شوی و، پارشنونه /dev/sdc2 и /dev/sdd2 222.5 GB شتون لري.

sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

دا لازمي دی:

  1. په هر ډیسک کې ویش 2 پراخ کړئ،
  2. پراخه لړۍ md127،
  3. PV پراخ کړئ (فزیکي حجم)
  4. LV پراخ کړئ (منطقي حجم) vg0-root،
  5. د فایل سیسټم پراخ کړئ.

د افادیت په کارولو سره پارټ راځئ چې برخه پراخه کړو /dev/sdc2 تر اعظمي ارزښت پورې. کمانډ اجرا کړئ parted /dev/sdc (1) او د کمانډ سره د اوسني ویش میز وګورئ p (2).

په لینکس کې د لوی ډیسکونو سره کوچني ډیسکونه ځای په ځای کول

لکه څنګه چې تاسو لیدلی شئ، د ویش 2 پای په 240 GB کې پای ته رسیږي. راځئ چې د کمانډ سره ویش پراخه کړو resizepart 2، چیرې چې 2 د برخې شمیره ده (3). موږ ارزښت په ډیجیټل بڼه کې په ګوته کوو، د بیلګې په توګه 1000 GB، یا د ډیسک شریکولو اشاره وکاروئ - 100٪. موږ بیا ګورو چې ویش نوې اندازه لري (4).

د ډیسک لپاره پورته ګامونه تکرار کړئ /dev/sdd. د برخو پراخولو وروسته /dev/sdc2 и /dev/sdd2 د 930.5 GB سره برابر شو.

[root@localhost ~]# lsblk                                                 
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 930,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 930,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

له دې وروسته موږ صف پراخه کوو md127 تر اعظمي حده.

mdadm --grow /dev/md127 --size=max

موږ ګورو چې صف پراخه شوی. اوس یې اندازه 930.4 GB ته رسیدلې ده.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0 931,5G  0 disk  
├─sdc1           8:33   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc2           8:34   0 930,5G  0 part  
  └─md127        9:127  0 930,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0 931,5G  0 disk  
├─sdd1           8:49   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd2           8:50   0 930,5G  0 part  
  └─md127        9:127  0 930,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

د تمدید پراخول فزیکي حجم. د پراخولو دمخه، راځئ چې د PV اوسنی حالت وګورو.

[root@localhost ~]# pvscan
  PV /dev/md127   VG vg0             lvm2 [222,40 GiB / 0    free]
  Total: 1 [222,40 GiB] / in use: 1 [222,40 GiB] / in no VG: 0 [0   ]

لکه څنګه چې لیدل کیدی شي، PV /dev/md127 د 222.4 GB ځای کاروي.

موږ د لاندې کمانډ سره PV پراخوو.

pvresize /dev/md127

د PV توسعې پایلې چک کول.

[

root@localhost ~]# pvscan
  PV /dev/md127   VG vg0             lvm2 [930,38 GiB / 707,98 GiB free]
  Total: 1 [930,38 GiB] / in use: 1 [930,38 GiB] / in no VG: 0 [0   ]

پراخول منطقي حجم. د پراخولو دمخه، راځئ چې د LV اوسنی حالت وګورو (1).

[root@localhost ~]# lvscan
  ACTIVE            '/dev/vg0/swap' [<16,00 GiB] inherit
  ACTIVE            '/dev/vg0/root' [<206,41 GiB] inherit

LV /dev/vg0/root 206.41 GB کاروي.

موږ د لاندې کمانډ سره LV پراخوو (2).

lvextend -l +100%FREE /dev/mapper/vg0-root

موږ بشپړ شوی عمل چیک کوو (3).

[root@localhost ~]# lvscan 
  ACTIVE            '/dev/vg0/swap' [<16,00 GiB] inherit
  ACTIVE            '/dev/vg0/root' [<914,39 GiB] inherit

لکه څنګه چې تاسو لیدلی شئ، د LV پراخولو وروسته، د نیول شوي ډیسک ځای مقدار 914.39 GB شو.

په لینکس کې د لوی ډیسکونو سره کوچني ډیسکونه ځای په ځای کول

د LV حجم (4) زیات شوی، مګر د فایل سیسټم لاهم 204 GB (5) نیسي.

1. راځئ چې د فایل سیسټم پراخ کړو.

resize2fs /dev/mapper/vg0-root

د کمانډ اجرا کیدو وروسته، موږ د فایل سیسټم اندازه ګورو.

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                32G            0   32G            0% /dev
tmpfs                   32G            0   32G            0% /dev/shm
tmpfs                   32G         9,5M   32G            1% /run
tmpfs                   32G            0   32G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   900G         1,3G  860G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  6,3G            0  6,3G            0% /run/user/0

د روټ فایل سیسټم اندازه به 900 GB ته لوړه شي. د مرحلو بشپړولو وروسته ، تاسو کولی شئ زاړه ډیسکونه لرې کړئ.

قضیه 2: د لوی ډیسکونو سره د کوچني ډیسکونو ځای په ځای کول (له 2TB څخه ډیر)

دنده: اوسني ډیسکونه د لوی ډیسکونو سره بدل کړئ (2 x 3TB) د معلوماتو ساتلو پرمهال. په دې حالت کې، موږ د نصب شوي سیسټم سره 2 x 240 GB SSD (RAID-1) ډیسکونه لرو او د 2 x 3 TB SATA ډیسکونه چې سیسټم یې لیږدولو ته اړتیا لري. اوسني ډیسکونه د MBR ویش جدول کاروي. څرنګه چې نوي ډیسکونه د 2 TB څخه ډیر ظرفیت لري، دوی به د GPT میز کارولو ته اړتیا ولري، ځکه چې MBR نشي کولی د 2 TB څخه لوی ډیسکونو سره کار وکړي.

راځئ چې د اوسني ډیسک ترتیب وګورو.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sda2           8:2    0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
sdd              8:48   0   2,7T  0 disk  

راځئ چې په ډیسک کې کارول شوي د ویش میز وګورئ /dev/sda.

[root@localhost ~]# fdisk -l /dev/sda | grep 'Disk label type'
Disk label type: dos

په ډیسک کې /dev/sdb د ورته ویش جدول کارول کیږي. راځئ چې په سیسټم کې د کارول شوي ډیسک ځای وګورو.

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,5M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,3G  192G            1% /
/dev/md126            1007M         120M  837M           13% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

لکه څنګه چې تاسو لیدلی شئ، د فایل سیسټم ریښه 204 GB نیسي. راځئ چې د سافټویر RAID صف اوسنی حالت وګورو.

1. د GPT د ویش میز نصبول او د ډیسک ویشل

راځئ چې د سکټور لخوا د ډیسک ترتیب وګورو.

[root@localhost ~]# parted /dev/sda print
Модель: ATA KINGSTON SVP200S (scsi)
Диск /dev/sda: 240GB
Размер сектора (логич./физич.): 512B/512B
Таблица разделов: msdos
Disk Flags: 

Номер  Начало  Конец   Размер  Тип      Файловая система  Флаги
 1     1049kB  1076MB  1075MB  primary                    загрузочный, raid
 2     1076MB  240GB   239GB   primary                    raid

په نوي 3TB ډیسک کې موږ به د 3 برخې جوړولو ته اړتیا ولرو:

  1. برخه bios_grub د GPT BIOS مطابقت لپاره د 2MiB اندازه،
  2. د RAID سرې لپاره برخه چې په کې به نصب شي /boot.
  3. د RAID صف لپاره ویش چې هلته به وي LV ريښه и د LV تبادله.

د اسانتیا نصبول پارټ ډله yum install -y parted (د CentOS لپاره) apt install -y parted (دبیان / اوبنټو لپاره).

کارول پارټ راځئ چې د ډیسک د ویشلو لپاره لاندې کمانډونه پرمخ یوسو.

کمانډ اجرا کړئ parted /dev/sdc او د ډیسک ترتیب ترمیم حالت ته لاړشئ.

د GPT د ویش جدول جوړ کړئ.

(parted) mktable gpt

1 برخه جوړه کړئ bios_grub برخه او د هغې لپاره بیرغ ترتیب کړئ.

(parted) mkpart primary 1MiB 3MiB
(parted) set 1 bios_grub on  

2 برخه جوړه کړئ او د هغې لپاره بیرغ ترتیب کړئ. تقسیم به د RAID صف لپاره د بلاک په توګه وکارول شي او نصب شي /boot.

(parted) mkpart primary ext2 3MiB 1028MiB
(parted) set 2 boot on

موږ دریمه برخه رامینځته کوو ، کوم چې به د سرې بلاک په توګه هم وکارول شي چیرې چې LVM به موقعیت ولري.

(parted) mkpart primary 1028MiB 100% 

پدې حالت کې ، دا اړینه نده چې بیرغ تنظیم کړئ ، مګر که اړتیا وي ، دا د لاندې کمانډ سره تنظیم کیدی شي.

(parted) set 3 raid on

موږ جوړ شوی میز چیک کوو.

(parted) p                                                                
Модель: ATA TOSHIBA DT01ACA3 (scsi)
Диск /dev/sdc: 3001GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Disk Flags: 

Номер  Начало  Конец   Размер  Файловая система  Имя      Флаги
 1     1049kB  3146kB  2097kB                    primary  bios_grub
 2     3146kB  1077MB  1074MB                    primary  загрузочный
 3     1077MB  3001GB  3000GB                    primary

موږ ډیسک ته یو نوی تصادفي GUID ګمارو.

sgdisk -G /dev/sdd

2. له صفونو څخه د لومړي ډیسک برخې لرې کول

د صف حالت چک کول

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda2[0] sdb2[1]
      233206784 blocks super 1.2 [2/2] [UU]
      bitmap: 0/2 pages [0KB], 65536KB chunk

unused devices: <none>

سیسټم 2 صفونه کاروي: md126 (ماونټ پوائنټ / بوټ) - مشتمل دی /dev/sda1 и /dev/sdb1, md127 (د دې لپاره LVM swap او د فایل سیسټم ریښه) - عبارت دی له /dev/sda2 и /dev/sdb2.

موږ د لومړي ډیسک برخې په نښه کوو چې په هر صف کې کارول کیږي خراب.

mdadm /dev/md126 --fail /dev/sda1

mdadm /dev/md127 --fail /dev/sda2

د بلاک وسیلې برخې لرې کول /dev/sda له صفونو څخه.

mdadm /dev/md126 --remove /dev/sda1

mdadm /dev/md127 --remove /dev/sda2

د ډیسک له لرې کولو وروسته د صف حالت چیک کول.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdb1[1]
      1047552 blocks super 1.2 [2/1] [_U]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      bitmap: 2/2 pages [8KB], 65536KB chunk

unused devices: <none>

3. په صف کې د نوي ډیسک برخې اضافه کول

بل ګام دا دی چې د نوي ډیسک برخې برخې د همغږي کولو لپاره په صفونو کې اضافه کړئ. راځئ چې د ډیسک ترتیب اوسنی حالت وګورو.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
└─sdc3           8:35   0   2,7T  0 part  
sdd              8:48   0   2,7T  0 disk  

برخه /dev/sdc1 دا bios_grub برخه او د صفونو په جوړولو کې دخیل ندي. صفونه به یوازې وکاروي /dev/sdc2 и /dev/sdc3. موږ دا برخې په اړونده صفونو کې اضافه کوو.

mdadm /dev/md126 --add /dev/sdc2

mdadm /dev/md127 --add /dev/sdc3

بیا موږ د سرې ترکیب لپاره انتظار کوو.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdc2[2] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sdc3[2] sdb2[1]
      233206784 blocks super 1.2 [2/1] [_U]
      [>....................]  recovery =  0.2% (619904/233206784) finish=31.2min speed=123980K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>

د ډیسک تقسیم کول په صف کې د برخو اضافه کولو وروسته.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdb2           8:18   0 222,5G  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  

4. له صفونو څخه د دوهم ډیسک برخې لرې کول

موږ د دوهم ډیسک برخې په نښه کوو چې په هر صف کې کارول کیږي خراب.

mdadm /dev/md126 --fail /dev/sdb1

mdadm /dev/md127 --fail /dev/sdb2

د بلاک وسیلې برخې لرې کول /dev/sda له صفونو څخه.

mdadm /dev/md126 --remove /dev/sdb1

mdadm /dev/md127 --remove /dev/sdb2

5. د GPT ترتیب جدول کاپي کړئ او سرې همغږي کړئ

د GPT مارک اپ جدول کاپي کولو لپاره موږ به دا کار وکاروو sgdisk، کوم چې د ډیسک برخې او GPT میز سره کار کولو لپاره په کڅوړه کې شامل دی - gdisk.

د جوړولو gdisk د CentOS لپاره:

yum install -y gdisk

د جوړولو gdisk د Debian/Ubuntu لپاره:

apt install -y gdisk

توجه: د GPT لپاره первым ډیسک ښودل شوی په کوم باندې مارک اپ کاپي کړئ، دوهم ډیسک ډیسک ته اشاره کوي له کوم څخه مارک اپ کاپي کړئ. که تاسو ډیسکونه ګډ کړئ ، نو په پیل کې ښه برخه به له سره لیکل کیږي او ویجاړ شي.

د GPT مارک اپ جدول کاپي کړئ.

sgdisk -R /dev/sdd /dev/sdc

ډیسک ته د میز له لیږدولو وروسته د ډیسک تقسیم کول /dev/sdd.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
└─sdd3           8:51   0   2,7T  0 part  

بیا، موږ د سافټویر RAID صفونو کې برخه اخیستونکي هر پارشنونه اضافه کوو.

mdadm /dev/md126 --add /dev/sdd2

mdadm /dev/md127 --add /dev/sdd3

موږ د سرې د همغږي کولو په تمه یو.

[root@localhost ~]# cat /proc/mdstat 
Personalities : [raid1] 
md126 : active raid1 sdd2[3] sdc2[2]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md127 : active raid1 sdd3[3] sdc3[2]
      233206784 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.0% (148224/233206784) finish=26.2min speed=148224K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk
unused devices: <none>

دوهم نوي ډیسک ته د GPT برخې کاپي کولو وروسته ، ویش به داسې ښکاري.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
├─sda1           8:1    0     1G  0 part  
└─sda2           8:2    0 222,5G  0 part  
sdb              8:16   0 223,6G  0 disk  
├─sdb1           8:17   0     1G  0 part  
└─sdb2           8:18   0 222,5G  0 part  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md126        9:126  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md127        9:127  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

بیا، په نوي ډیسکونو کې GRUB نصب کړئ.

د CentOS لپاره نصب کول:

grub2-install /dev/sdX

د Debian/Ubuntu لپاره نصب کول:

grub-install /dev/sdX

چې X - د ډرایو لیک، زموږ په قضیه کې ډرایو /dev/sdc и /dev/sdd.

موږ د صف په اړه معلومات تازه کوو.

د CentOS لپاره:

mdadm --detail --scan --verbose > /etc/mdadm.conf

دبیان/اوبنټو لپاره:

echo "DEVICE partitions" > /etc/mdadm/mdadm.conf

mdadm --detail --scan --verbose | awk '/ARRAY/ {print}' >> /etc/mdadm/mdadm.conf

د انځور تازه کول initrd:
د CentOS لپاره:

dracut -f -v --regenerate-all

دبیان/اوبنټو لپاره:

update-initramfs -u -k all

موږ د GRUB ترتیب تازه کوو.

د CentOS لپاره:

grub2-mkconfig -o /boot/grub2/grub.cfg

دبیان/اوبنټو لپاره:

update-grub

د مرحلو بشپړولو وروسته، زاړه ډیسکونه لرې کیدی شي.

6. د روټ برخې د فایل سیسټم توسیع (ext4).

د ډیسک ویشل د فایل سیسټم پراخولو دمخه د سیسټم 2 x 3TB ډیسکونو (RAID-1) ته لیږدولو وروسته.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
sdb              8:16   0 223,6G  0 disk  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md126        9:126  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md126        9:126  0 222,4G  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

اوس برخې /dev/sdc3 и /dev/sdd3 2.7 TB قبضه کوي. له هغه وخته چې موږ د GPT جدول سره د ډیسک نوی ترتیب رامینځته کړی ، د برخې 3 اندازه سمدلاسه د ډیسک اعظمي حد ته ټاکل شوې وه؛ پدې حالت کې ، د برخې پراخولو ته اړتیا نشته.

دا لازمي دی:

  1. پراخه لړۍ md126،
  2. PV پراخ کړئ (فزیکي حجم)
  3. LV پراخ کړئ (منطقي حجم) vg0-root،
  4. د فایل سیسټم پراخ کړئ.

1. صف پراخه کړئ md126 تر اعظمي حده.

mdadm --grow /dev/md126 --size=max

د صف پراخولو وروسته md126 د نیول شوي ځای اندازه 2.7 TB ته لوړه شوې.

[root@localhost ~]# lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda              8:0    0 223,6G  0 disk  
sdb              8:16   0 223,6G  0 disk  
sdc              8:32   0   2,7T  0 disk  
├─sdc1           8:33   0     2M  0 part  
├─sdc2           8:34   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdc3           8:35   0   2,7T  0 part  
  └─md126        9:126  0   2,7T  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]
sdd              8:48   0   2,7T  0 disk  
├─sdd1           8:49   0     2M  0 part  
├─sdd2           8:50   0     1G  0 part  
│ └─md127        9:127  0  1023M  0 raid1 /boot
└─sdd3           8:51   0   2,7T  0 part  
  └─md126        9:126  0   2,7T  0 raid1 
    ├─vg0-root 253:0    0 206,4G  0 lvm   /
    └─vg0-swap 253:1    0    16G  0 lvm   [SWAP]

پراخول فزیکي حجم.

د پراخولو دمخه، د اشغال شوي ځای اوسني ارزښت وګورئ PV /dev/md126.

[root@localhost ~]# pvs
  PV         VG  Fmt  Attr PSize   PFree
  /dev/md126 vg0 lvm2 a--  222,40g    0 

موږ د لاندې کمانډ سره PV پراخوو.

pvresize /dev/md126

موږ بشپړ شوي عمل چیک کوو.

[root@localhost ~]# pvs
  PV         VG  Fmt  Attr PSize  PFree
  /dev/md126 vg0 lvm2 a--  <2,73t 2,51t

پراخول منطقي حجم vg0-root.

د PV پراخولو وروسته، راځئ چې اشغال شوی ځای VG وګورو.

[root@localhost ~]# vgs
  VG  #PV #LV #SN Attr   VSize  VFree
  vg0   1   2   0 wz--n- <2,73t 2,51t

راځئ هغه ځای وګورو چې د LV لخوا نیول شوی.

[root@localhost ~]# lvs
  LV   VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root vg0 -wi-ao---- <206,41g                                                    
  swap vg0 -wi-ao----  <16,00g            

د vg0-root حجم 206.41 GB لري.

موږ د ډیسک اعظمي ځای ته LV پراخوو.

lvextend -l +100%FREE /dev/mapper/vg0-root 

د پراختیا وروسته د LV ځای چک کول.

[root@localhost ~]# lvs
  LV   VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root vg0 -wi-ao----   2,71t                                                    
  swap vg0 -wi-ao---- <16,00g

د فایل سیسټم پراخول (ext4).

راځئ چې د فایل سیسټم اوسنی اندازه وګورو.

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,6M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   204G         1,4G  192G            1% /
/dev/md127            1007M         141M  816M           15% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

حجم /dev/mapper/vg0-root د LV پراخیدو وروسته 204 GB نیسي.

د فایل سیسټم پراخول.

resize2fs /dev/mapper/vg0-root 

د پراخولو وروسته د فایل سیسټم اندازه چیک کول.

[root@localhost ~]# df -h
Файловая система     Размер Использовано  Дост Использовано% Cмонтировано в
devtmpfs                16G            0   16G            0% /dev
tmpfs                   16G            0   16G            0% /dev/shm
tmpfs                   16G         9,6M   16G            1% /run
tmpfs                   16G            0   16G            0% /sys/fs/cgroup
/dev/mapper/vg0-root   2,7T         1,4G  2,6T            1% /
/dev/md127            1007M         141M  816M           15% /boot
tmpfs                  3,2G            0  3,2G            0% /run/user/0

د فایل سیسټم اندازه د ټول حجم پوښلو لپاره لوړه شوې.

سرچینه: www.habr.com

Add a comment