ಬಿಡುವಿಲ್ಲದ ಯೋಜನೆಗಳಲ್ಲಿ Ceph ನೊಂದಿಗೆ ಕೆಲಸ ಮಾಡಲು ಸಲಹೆಗಳು ಮತ್ತು ತಂತ್ರಗಳು

ಬಿಡುವಿಲ್ಲದ ಯೋಜನೆಗಳಲ್ಲಿ Ceph ನೊಂದಿಗೆ ಕೆಲಸ ಮಾಡಲು ಸಲಹೆಗಳು ಮತ್ತು ತಂತ್ರಗಳು

Ceph ಅನ್ನು ವಿವಿಧ ಲೋಡ್‌ಗಳೊಂದಿಗೆ ಯೋಜನೆಗಳಲ್ಲಿ ನೆಟ್ವರ್ಕ್ ಸಂಗ್ರಹಣೆಯಾಗಿ ಬಳಸುವುದರಿಂದ, ಮೊದಲ ನೋಟದಲ್ಲಿ ಸರಳ ಅಥವಾ ಕ್ಷುಲ್ಲಕವಾಗಿ ತೋರದ ವಿವಿಧ ಕಾರ್ಯಗಳನ್ನು ನಾವು ಎದುರಿಸಬಹುದು. ಉದಾಹರಣೆಗೆ:

  • ಹೊಸ ಕ್ಲಸ್ಟರ್‌ನಲ್ಲಿ ಹಿಂದಿನ ಸರ್ವರ್‌ಗಳ ಭಾಗಶಃ ಬಳಕೆಯೊಂದಿಗೆ ಹಳೆಯ Ceph ನಿಂದ ಹೊಸದಕ್ಕೆ ಡೇಟಾದ ಸ್ಥಳಾಂತರ;
  • Ceph ನಲ್ಲಿ ಡಿಸ್ಕ್ ಸ್ಥಳ ಹಂಚಿಕೆಯ ಸಮಸ್ಯೆಗೆ ಪರಿಹಾರ.

ಅಂತಹ ಸಮಸ್ಯೆಗಳೊಂದಿಗೆ ವ್ಯವಹರಿಸುವಾಗ, ಡೇಟಾವನ್ನು ಕಳೆದುಕೊಳ್ಳದೆ OSD ಅನ್ನು ಸರಿಯಾಗಿ ತೆಗೆದುಹಾಕುವ ಅಗತ್ಯವನ್ನು ನಾವು ಎದುರಿಸುತ್ತೇವೆ, ಇದು ದೊಡ್ಡ ಪ್ರಮಾಣದ ಡೇಟಾದೊಂದಿಗೆ ವ್ಯವಹರಿಸುವಾಗ ಮುಖ್ಯವಾಗಿದೆ. ಇದನ್ನು ಲೇಖನದಲ್ಲಿ ಚರ್ಚಿಸಲಾಗುವುದು.

ಕೆಳಗೆ ವಿವರಿಸಿದ ವಿಧಾನಗಳು Ceph ನ ಯಾವುದೇ ಆವೃತ್ತಿಗೆ ಸಂಬಂಧಿತವಾಗಿವೆ. ಹೆಚ್ಚುವರಿಯಾಗಿ, Ceph ಹೆಚ್ಚಿನ ಪ್ರಮಾಣದ ಡೇಟಾವನ್ನು ಸಂಗ್ರಹಿಸಬಹುದು ಎಂಬ ಅಂಶವನ್ನು ಗಣನೆಗೆ ತೆಗೆದುಕೊಳ್ಳಲಾಗುತ್ತದೆ: ಡೇಟಾ ನಷ್ಟ ಮತ್ತು ಇತರ ಸಮಸ್ಯೆಗಳನ್ನು ತಡೆಗಟ್ಟಲು, ಕೆಲವು ಕ್ರಮಗಳನ್ನು ಹಲವಾರು ಇತರವುಗಳಾಗಿ "ವಿಭಜಿಸಲಾಗುತ್ತದೆ".

OSD ಬಗ್ಗೆ ಮುನ್ನುಡಿ

ಚರ್ಚಿಸಿದ ಮೂರು ಪಾಕವಿಧಾನಗಳಲ್ಲಿ ಎರಡು OSD ಗೆ ಮೀಸಲಾಗಿರುವುದರಿಂದ (ಆಬ್ಜೆಕ್ಟ್ ಸ್ಟೋರೇಜ್ ಡೀಮನ್), ಪ್ರಾಯೋಗಿಕ ಭಾಗಕ್ಕೆ ಧುಮುಕುವ ಮೊದಲು - ಅದು ಸೆಫ್‌ನಲ್ಲಿ ಏನಿದೆ ಮತ್ತು ಅದು ಏಕೆ ಮುಖ್ಯವಾಗಿದೆ ಎಂಬುದರ ಕುರಿತು ಸಂಕ್ಷಿಪ್ತವಾಗಿ.

ಮೊದಲನೆಯದಾಗಿ, ಇಡೀ Ceph ಕ್ಲಸ್ಟರ್ ಅನೇಕ OSD ಗಳನ್ನು ಒಳಗೊಂಡಿದೆ ಎಂದು ಹೇಳಬೇಕು. ಹೆಚ್ಚು ಇವೆ, Ceph ನಲ್ಲಿ ಉಚಿತ ಡೇಟಾ ಪರಿಮಾಣವು ಹೆಚ್ಚಾಗುತ್ತದೆ. ಇಲ್ಲಿಂದ ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವುದು ಸುಲಭ ಮುಖ್ಯ OSD ಕಾರ್ಯ: ಇದು ಎಲ್ಲಾ ಕ್ಲಸ್ಟರ್ ನೋಡ್‌ಗಳ ಫೈಲ್ ಸಿಸ್ಟಮ್‌ಗಳಲ್ಲಿ Ceph ಆಬ್ಜೆಕ್ಟ್ ಡೇಟಾವನ್ನು ಸಂಗ್ರಹಿಸುತ್ತದೆ ಮತ್ತು ಅದಕ್ಕೆ ನೆಟ್‌ವರ್ಕ್ ಪ್ರವೇಶವನ್ನು ಒದಗಿಸುತ್ತದೆ (ಓದಲು, ಬರೆಯಲು ಮತ್ತು ಇತರ ವಿನಂತಿಗಳಿಗಾಗಿ).

ಅದೇ ಮಟ್ಟದಲ್ಲಿ, ವಿವಿಧ OSD ಗಳ ನಡುವೆ ವಸ್ತುಗಳನ್ನು ನಕಲಿಸುವ ಮೂಲಕ ಪ್ರತಿಕೃತಿ ನಿಯತಾಂಕಗಳನ್ನು ಹೊಂದಿಸಲಾಗಿದೆ. ಮತ್ತು ಇಲ್ಲಿ ನೀವು ವಿವಿಧ ಸಮಸ್ಯೆಗಳನ್ನು ಎದುರಿಸಬಹುದು, ಪರಿಹಾರಗಳನ್ನು ಕೆಳಗೆ ಚರ್ಚಿಸಲಾಗುವುದು.

ಪ್ರಕರಣ ಸಂಖ್ಯೆ 1. ಡೇಟಾವನ್ನು ಕಳೆದುಕೊಳ್ಳದೆ Ceph ಕ್ಲಸ್ಟರ್‌ನಿಂದ OSD ಅನ್ನು ಸುರಕ್ಷಿತವಾಗಿ ತೆಗೆದುಹಾಕಿ

OSD ಅನ್ನು ತೆಗೆದುಹಾಕುವ ಅಗತ್ಯವು ಕ್ಲಸ್ಟರ್‌ನಿಂದ ಸರ್ವರ್ ಅನ್ನು ತೆಗೆದುಹಾಕುವ ಮೂಲಕ ಉಂಟಾಗಬಹುದು - ಉದಾಹರಣೆಗೆ, ಅದನ್ನು ಮತ್ತೊಂದು ಸರ್ವರ್‌ನೊಂದಿಗೆ ಬದಲಾಯಿಸಲು - ಇದು ನಮಗೆ ಏನಾಯಿತು, ಈ ಲೇಖನದ ಬರವಣಿಗೆಗೆ ಕಾರಣವಾಗಿದೆ. ಹೀಗಾಗಿ, ಕುಶಲತೆಯ ಅಂತಿಮ ಗುರಿಯು ನೀಡಿದ ಸರ್ವರ್‌ನಲ್ಲಿ ಎಲ್ಲಾ OSD ಗಳು ಮತ್ತು ಮಾನ್‌ಗಳನ್ನು ಹೊರತೆಗೆಯುವುದು ಇದರಿಂದ ಅದನ್ನು ನಿಲ್ಲಿಸಬಹುದು.

ಅನುಕೂಲಕ್ಕಾಗಿ ಮತ್ತು ಪರಿಸ್ಥಿತಿಯನ್ನು ತಪ್ಪಿಸಲು, ಆಜ್ಞೆಗಳನ್ನು ಕಾರ್ಯಗತಗೊಳಿಸುವಾಗ, ಅಗತ್ಯವಿರುವ OSD ಅನ್ನು ಸೂಚಿಸುವಲ್ಲಿ ನಾವು ತಪ್ಪು ಮಾಡಿದರೆ, ನಾವು ಪ್ರತ್ಯೇಕ ವೇರಿಯೇಬಲ್ ಅನ್ನು ಹೊಂದಿಸುತ್ತೇವೆ, ಅದರ ಮೌಲ್ಯವು ಅಳಿಸಬೇಕಾದ OSD ಸಂಖ್ಯೆಯಾಗಿದೆ. ಅವಳನ್ನು ಕರೆಯೋಣ ${ID} - ಇಲ್ಲಿ ಮತ್ತು ಕೆಳಗೆ, ಅಂತಹ ವೇರಿಯಬಲ್ ನಾವು ಕೆಲಸ ಮಾಡುತ್ತಿರುವ OSD ಸಂಖ್ಯೆಯನ್ನು ಬದಲಾಯಿಸುತ್ತದೆ.

ಕೆಲಸವನ್ನು ಪ್ರಾರಂಭಿಸುವ ಮೊದಲು ಸ್ಥಿತಿಯನ್ನು ನೋಡೋಣ:

root@hv-1 ~ # ceph osd tree
ID CLASS WEIGHT  TYPE NAME      STATUS REWEIGHT PRI-AFF
-1       0.46857 root default
-3       0.15619      host hv-1
-5       0.15619      host hv-2
 1   ssd 0.15619      osd.1     up     1.00000  1.00000
-7       0.15619      host hv-3
 2   ssd 0.15619      osd.2     up     1.00000  1.00000

OSD ತೆಗೆದುಹಾಕುವಿಕೆಯನ್ನು ಪ್ರಾರಂಭಿಸಲು, ನೀವು ಸರಾಗವಾಗಿ ನಿರ್ವಹಿಸಬೇಕಾಗುತ್ತದೆ reweight ಅದರ ಮೇಲೆ ಶೂನ್ಯಕ್ಕೆ. ಈ ರೀತಿಯಲ್ಲಿ ನಾವು OSD ಯಲ್ಲಿನ ಡೇಟಾವನ್ನು ಇತರ OSD ಗಳಿಗೆ ಸಮತೋಲನಗೊಳಿಸುವ ಮೂಲಕ ಕಡಿಮೆಗೊಳಿಸುತ್ತೇವೆ. ಇದನ್ನು ಮಾಡಲು, ಈ ಕೆಳಗಿನ ಆಜ್ಞೆಗಳನ್ನು ಚಲಾಯಿಸಿ:

ceph osd reweight osd.${ID} 0.98
ceph osd reweight osd.${ID} 0.88
ceph osd reweight osd.${ID} 0.78

ಮತ್ತು ಹೀಗೆ ಶೂನ್ಯದವರೆಗೆ.

ಸ್ಮೂತ್ ಬ್ಯಾಲೆನ್ಸಿಂಗ್ ಅಗತ್ಯವಿದೆಆದ್ದರಿಂದ ಡೇಟಾವನ್ನು ಕಳೆದುಕೊಳ್ಳದಂತೆ. OSD ಹೆಚ್ಚಿನ ಪ್ರಮಾಣದ ಡೇಟಾವನ್ನು ಹೊಂದಿದ್ದರೆ ಇದು ವಿಶೇಷವಾಗಿ ಸತ್ಯವಾಗಿದೆ. ಆಜ್ಞೆಗಳನ್ನು ಕಾರ್ಯಗತಗೊಳಿಸಿದ ನಂತರ ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಲು reweight ಎಲ್ಲವೂ ಚೆನ್ನಾಗಿ ಹೋಯಿತು, ನೀವು ಅದನ್ನು ಪೂರ್ಣಗೊಳಿಸಬಹುದು ceph -s ಅಥವಾ ಪ್ರತ್ಯೇಕ ಟರ್ಮಿನಲ್ ವಿಂಡೋ ರನ್ನಲ್ಲಿ ceph -w ನೈಜ ಸಮಯದಲ್ಲಿ ಬದಲಾವಣೆಗಳನ್ನು ವೀಕ್ಷಿಸಲು.

OSD "ಖಾಲಿ" ಮಾಡಿದಾಗ, ಅದನ್ನು ತೆಗೆದುಹಾಕಲು ನೀವು ಪ್ರಮಾಣಿತ ಕಾರ್ಯಾಚರಣೆಯೊಂದಿಗೆ ಮುಂದುವರಿಯಬಹುದು. ಇದನ್ನು ಮಾಡಲು, ಬಯಸಿದ OSD ಅನ್ನು ರಾಜ್ಯಕ್ಕೆ ವರ್ಗಾಯಿಸಿ down:

ceph osd down osd.${ID}

ಕ್ಲಸ್ಟರ್‌ನಿಂದ OSD ಅನ್ನು "ಪುಲ್" ಮಾಡೋಣ:

ceph osd out osd.${ID}

OSD ಸೇವೆಯನ್ನು ನಿಲ್ಲಿಸೋಣ ಮತ್ತು FS ನಲ್ಲಿ ಅದರ ವಿಭಾಗವನ್ನು ಅನ್‌ಮೌಂಟ್ ಮಾಡೋಣ:

systemctl stop ceph-osd@${ID}
umount /var/lib/ceph/osd/ceph-${ID}

ನಿಂದ OSD ತೆಗೆದುಹಾಕಿ ಕ್ರಷ್ ನಕ್ಷೆ:

ceph osd crush remove osd.${ID}

OSD ಬಳಕೆದಾರರನ್ನು ಅಳಿಸೋಣ:

ceph auth del osd.${ID}

ಮತ್ತು ಅಂತಿಮವಾಗಿ, OSD ಅನ್ನು ಸ್ವತಃ ತೆಗೆದುಹಾಕೋಣ:

ceph osd rm osd.${ID}

ಹೇಳಿಕೆಯನ್ನು: ನೀವು Ceph Luminous ಆವೃತ್ತಿ ಅಥವಾ ಹೆಚ್ಚಿನದನ್ನು ಬಳಸುತ್ತಿದ್ದರೆ, ಮೇಲಿನ OSD ತೆಗೆಯುವ ಹಂತಗಳನ್ನು ಎರಡು ಆಜ್ಞೆಗಳಿಗೆ ಕಡಿಮೆ ಮಾಡಬಹುದು:

ceph osd out osd.${ID}
ceph osd purge osd.${ID}

ಮೇಲೆ ವಿವರಿಸಿದ ಹಂತಗಳನ್ನು ಪೂರ್ಣಗೊಳಿಸಿದ ನಂತರ, ನೀವು ಆಜ್ಞೆಯನ್ನು ಚಲಾಯಿಸಿದರೆ ceph osd tree, ನಂತರ ಕೆಲಸವನ್ನು ನಿರ್ವಹಿಸಿದ ಸರ್ವರ್‌ನಲ್ಲಿ ಮೇಲಿನ ಕಾರ್ಯಾಚರಣೆಗಳನ್ನು ನಿರ್ವಹಿಸಿದ OSD ಗಳು ಇನ್ನು ಮುಂದೆ ಇಲ್ಲ ಎಂಬುದು ಸ್ಪಷ್ಟವಾಗಿರಬೇಕು:

root@hv-1 ~ # ceph osd tree
ID CLASS WEIGHT  TYPE NAME     STATUS REWEIGHT PRI-AFF
-1       0.46857      root default
-3       0.15619      host hv-1
-5       0.15619      host hv-2
-7       0.15619      host hv-3
 2   ssd 0.15619      osd.2    up     1.00000  1.00000

ದಾರಿಯುದ್ದಕ್ಕೂ, Ceph ಕ್ಲಸ್ಟರ್‌ನ ಸ್ಥಿತಿಯು ಹೋಗುತ್ತದೆ ಎಂಬುದನ್ನು ಗಮನಿಸಿ HEALTH_WARN, ಮತ್ತು ನಾವು OSD ಗಳ ಸಂಖ್ಯೆ ಮತ್ತು ಲಭ್ಯವಿರುವ ಡಿಸ್ಕ್ ಸ್ಥಳದ ಪ್ರಮಾಣದಲ್ಲಿ ಇಳಿಕೆಯನ್ನು ಸಹ ನೋಡುತ್ತೇವೆ.

ನೀವು ಸರ್ವರ್ ಅನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ನಿಲ್ಲಿಸಲು ಬಯಸಿದರೆ ಅಗತ್ಯವಿರುವ ಹಂತಗಳನ್ನು ಈ ಕೆಳಗಿನವು ವಿವರಿಸುತ್ತದೆ ಮತ್ತು ಅದರ ಪ್ರಕಾರ, ಅದನ್ನು Ceph ನಿಂದ ತೆಗೆದುಹಾಕಿ. ಈ ಸಂದರ್ಭದಲ್ಲಿ, ಅದನ್ನು ನೆನಪಿಟ್ಟುಕೊಳ್ಳುವುದು ಬಹಳ ಮುಖ್ಯ ಸರ್ವರ್ ಅನ್ನು ಮುಚ್ಚುವ ಮೊದಲು, ನೀವು ಎಲ್ಲಾ OSD ಗಳನ್ನು ತೆಗೆದುಹಾಕಬೇಕು ಈ ಸರ್ವರ್‌ನಲ್ಲಿ.

ಈ ಸರ್ವರ್‌ನಲ್ಲಿ ಯಾವುದೇ ಹೆಚ್ಚಿನ OSD ಗಳು ಉಳಿದಿಲ್ಲದಿದ್ದರೆ, ಅವುಗಳನ್ನು ತೆಗೆದುಹಾಕಿದ ನಂತರ ನೀವು OSD ನಕ್ಷೆಯಿಂದ ಸರ್ವರ್ ಅನ್ನು ಹೊರಗಿಡಬೇಕಾಗುತ್ತದೆ hv-2ಕೆಳಗಿನ ಆಜ್ಞೆಯನ್ನು ಚಲಾಯಿಸುವ ಮೂಲಕ:

ceph osd crush rm hv-2

ಅಳಿಸಿ mon ಸರ್ವರ್‌ನಿಂದ hv-2ಕೆಳಗಿನ ಆಜ್ಞೆಯನ್ನು ಮತ್ತೊಂದು ಸರ್ವರ್‌ನಲ್ಲಿ ಚಲಾಯಿಸುವ ಮೂಲಕ (ಅಂದರೆ ಈ ಸಂದರ್ಭದಲ್ಲಿ, ಆನ್ hv-1):

ceph-deploy mon destroy hv-2

ಇದರ ನಂತರ, ನೀವು ಸರ್ವರ್ ಅನ್ನು ನಿಲ್ಲಿಸಬಹುದು ಮತ್ತು ನಂತರದ ಕ್ರಿಯೆಗಳನ್ನು ಪ್ರಾರಂಭಿಸಬಹುದು (ಅದನ್ನು ಮರು-ನಿಯೋಜನೆ, ಇತ್ಯಾದಿ).

ಪ್ರಕರಣ ಸಂಖ್ಯೆ 2. ಈಗಾಗಲೇ ರಚಿಸಲಾದ Ceph ಕ್ಲಸ್ಟರ್‌ನಲ್ಲಿ ಡಿಸ್ಕ್ ಜಾಗದ ವಿತರಣೆ

ನಾನು ಎರಡನೇ ಕಥೆಯನ್ನು ಪಿಜಿ ಬಗ್ಗೆ ಮುನ್ನುಡಿಯೊಂದಿಗೆ ಪ್ರಾರಂಭಿಸುತ್ತೇನೆ (ಉದ್ಯೋಗ ಗುಂಪುಗಳು) Ceph ನಲ್ಲಿ PG ಯ ಮುಖ್ಯ ಪಾತ್ರವು ಪ್ರಾಥಮಿಕವಾಗಿ Ceph ಆಬ್ಜೆಕ್ಟ್‌ಗಳನ್ನು ಒಟ್ಟುಗೂಡಿಸುವುದು ಮತ್ತು ಅವುಗಳನ್ನು OSD ನಲ್ಲಿ ಮತ್ತಷ್ಟು ಪುನರಾವರ್ತಿಸುವುದು. PG ಯ ಅಗತ್ಯವಿರುವ ಮೊತ್ತವನ್ನು ನೀವು ಲೆಕ್ಕಾಚಾರ ಮಾಡುವ ಸೂತ್ರವು ಇಲ್ಲಿದೆ ಸಂಬಂಧಿತ ವಿಭಾಗ Ceph ದಸ್ತಾವೇಜನ್ನು. ಈ ಸಮಸ್ಯೆಯನ್ನು ನಿರ್ದಿಷ್ಟ ಉದಾಹರಣೆಗಳೊಂದಿಗೆ ಅಲ್ಲಿ ಚರ್ಚಿಸಲಾಗಿದೆ.

ಆದ್ದರಿಂದ: Ceph ಅನ್ನು ಬಳಸುವಾಗ ಸಾಮಾನ್ಯ ಸಮಸ್ಯೆಗಳೆಂದರೆ Ceph ನಲ್ಲಿನ ಪೂಲ್‌ಗಳ ನಡುವೆ ಅಸಮತೋಲಿತ ಸಂಖ್ಯೆಯ OSD ಮತ್ತು PG.

ಮೊದಲನೆಯದಾಗಿ, ಈ ಕಾರಣದಿಂದಾಗಿ, ಒಂದು ಸಣ್ಣ ಪೂಲ್‌ನಲ್ಲಿ ಹಲವಾರು PG ಗಳನ್ನು ನಿರ್ದಿಷ್ಟಪಡಿಸಿದಾಗ ಪರಿಸ್ಥಿತಿಯು ಉದ್ಭವಿಸಬಹುದು, ಇದು ಕ್ಲಸ್ಟರ್‌ನಲ್ಲಿ ಡಿಸ್ಕ್ ಜಾಗದ ಅಭಾಗಲಬ್ಧ ಬಳಕೆಯಾಗಿದೆ. ಎರಡನೆಯದಾಗಿ, ಆಚರಣೆಯಲ್ಲಿ ಹೆಚ್ಚು ಗಂಭೀರವಾದ ಸಮಸ್ಯೆ ಇದೆ: OSD ಗಳಲ್ಲಿ ಒಂದರಲ್ಲಿ ಡೇಟಾ ಓವರ್ಫ್ಲೋ. ಇದು ರಾಜ್ಯಕ್ಕೆ ಕ್ಲಸ್ಟರ್ ಮೊದಲ ಪರಿವರ್ತನೆಗೆ ಒಳಪಡುತ್ತದೆ HEALTH_WARN, ಮತ್ತು ನಂತರ HEALTH_ERR. ಇದಕ್ಕೆ ಕಾರಣವೆಂದರೆ Ceph, ಲಭ್ಯವಿರುವ ಡೇಟಾವನ್ನು ಲೆಕ್ಕಾಚಾರ ಮಾಡುವಾಗ (ನೀವು ಅದನ್ನು ಕಂಡುಹಿಡಿಯಬಹುದು MAX AVAIL ಆಜ್ಞೆಯ ಔಟ್ಪುಟ್ನಲ್ಲಿ ceph df ಪ್ರತಿ ಪೂಲ್‌ಗೆ ಪ್ರತ್ಯೇಕವಾಗಿ) OSD ಯಲ್ಲಿ ಲಭ್ಯವಿರುವ ಡೇಟಾದ ಪ್ರಮಾಣವನ್ನು ಆಧರಿಸಿದೆ. ಕನಿಷ್ಠ ಒಂದು OSD ಯಲ್ಲಿ ಸಾಕಷ್ಟು ಸ್ಥಳಾವಕಾಶವಿಲ್ಲದಿದ್ದರೆ, ಎಲ್ಲಾ OSD ಗಳಲ್ಲಿ ಡೇಟಾವನ್ನು ಸರಿಯಾಗಿ ವಿತರಿಸುವವರೆಗೆ ಹೆಚ್ಚಿನ ಡೇಟಾವನ್ನು ಬರೆಯಲಾಗುವುದಿಲ್ಲ.

ಈ ಸಮಸ್ಯೆಗಳು ಎಂದು ಸ್ಪಷ್ಟಪಡಿಸುವುದು ಯೋಗ್ಯವಾಗಿದೆ Ceph ಕ್ಲಸ್ಟರ್ ಸಂರಚನಾ ಹಂತದಲ್ಲಿ ಹೆಚ್ಚಾಗಿ ನಿರ್ಧರಿಸಲಾಗುತ್ತದೆ. ನೀವು ಬಳಸಬಹುದಾದ ಸಾಧನಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ Ceph PGCalc. ಅದರ ಸಹಾಯದಿಂದ, ಅಗತ್ಯವಿರುವ ಪ್ರಮಾಣದ ಪಿಜಿಯನ್ನು ಸ್ಪಷ್ಟವಾಗಿ ಲೆಕ್ಕಹಾಕಲಾಗುತ್ತದೆ. ಆದಾಗ್ಯೂ, ಸೆಫ್ ಕ್ಲಸ್ಟರ್ ಇರುವ ಪರಿಸ್ಥಿತಿಯಲ್ಲಿ ನೀವು ಅದನ್ನು ಆಶ್ರಯಿಸಬಹುದು ಈಗಾಗಲೇ ತಪ್ಪಾಗಿ ಕಾನ್ಫಿಗರ್ ಮಾಡಲಾಗಿದೆ. ಸರಿಪಡಿಸುವ ಕೆಲಸದ ಭಾಗವಾಗಿ ನೀವು PG ಗಳ ಸಂಖ್ಯೆಯನ್ನು ಕಡಿಮೆ ಮಾಡಬೇಕಾಗಬಹುದು ಮತ್ತು ಈ ವೈಶಿಷ್ಟ್ಯವು Ceph ನ ಹಳೆಯ ಆವೃತ್ತಿಗಳಲ್ಲಿ ಲಭ್ಯವಿಲ್ಲ (ಇದು ಆವೃತ್ತಿಯಲ್ಲಿ ಮಾತ್ರ ಕಾಣಿಸಿಕೊಂಡಿದೆ ಎಂದು ಇಲ್ಲಿ ಸ್ಪಷ್ಟಪಡಿಸುವುದು ಯೋಗ್ಯವಾಗಿದೆ ನಾಟಿಲಸ್).

ಆದ್ದರಿಂದ, ಈ ಕೆಳಗಿನ ಚಿತ್ರವನ್ನು ಊಹಿಸೋಣ: ಕ್ಲಸ್ಟರ್ ಒಂದು ಸ್ಥಿತಿಯನ್ನು ಹೊಂದಿದೆ HEALTH_WARN OSD ಒಂದರಲ್ಲಿ ಸ್ಥಳಾವಕಾಶದ ಕೊರತೆಯಿಂದಾಗಿ. ಇದನ್ನು ದೋಷದಿಂದ ಸೂಚಿಸಲಾಗುತ್ತದೆ HEALTH_WARN: 1 near full osd. ಈ ಪರಿಸ್ಥಿತಿಯಿಂದ ಹೊರಬರಲು ಕೆಳಗಿನ ಅಲ್ಗಾರಿದಮ್ ಇದೆ.

ಮೊದಲನೆಯದಾಗಿ, ಉಳಿದ OSD ಗಳ ನಡುವೆ ಲಭ್ಯವಿರುವ ಡೇಟಾವನ್ನು ನೀವು ವಿತರಿಸಬೇಕಾಗಿದೆ. ನಾವು ಈಗಾಗಲೇ ಮೊದಲ ಪ್ರಕರಣದಲ್ಲಿ ಇದೇ ರೀತಿಯ ಕಾರ್ಯಾಚರಣೆಯನ್ನು ಮಾಡಿದ್ದೇವೆ, ನಾವು ನೋಡ್ ಅನ್ನು "ಬರಿದಾದಾಗ" - ಈಗ ನಾವು ಸ್ವಲ್ಪ ಕಡಿಮೆ ಮಾಡಬೇಕಾದ ಏಕೈಕ ವ್ಯತ್ಯಾಸದೊಂದಿಗೆ reweight. ಉದಾಹರಣೆಗೆ, 0.95 ವರೆಗೆ:

ceph osd reweight osd.${ID} 0.95

ಇದು OSD ನಲ್ಲಿ ಡಿಸ್ಕ್ ಜಾಗವನ್ನು ಮುಕ್ತಗೊಳಿಸುತ್ತದೆ ಮತ್ತು ceph ಆರೋಗ್ಯದಲ್ಲಿನ ದೋಷವನ್ನು ಸರಿಪಡಿಸುತ್ತದೆ. ಆದಾಗ್ಯೂ, ಈಗಾಗಲೇ ಹೇಳಿದಂತೆ, ಆರಂಭಿಕ ಹಂತಗಳಲ್ಲಿ Ceph ನ ತಪ್ಪಾದ ಸಂರಚನೆಯಿಂದಾಗಿ ಈ ಸಮಸ್ಯೆಯು ಮುಖ್ಯವಾಗಿ ಸಂಭವಿಸುತ್ತದೆ: ಭವಿಷ್ಯದಲ್ಲಿ ಅದು ಗೋಚರಿಸದಂತೆ ಮರುಸಂರಚನೆಯನ್ನು ಮಾಡುವುದು ಬಹಳ ಮುಖ್ಯ.

ನಮ್ಮ ನಿರ್ದಿಷ್ಟ ಸಂದರ್ಭದಲ್ಲಿ, ಇದು ಎಲ್ಲಾ ಕೆಳಗೆ ಬಂದಿತು:

  • ಮೌಲ್ಯವು ತುಂಬಾ ಹೆಚ್ಚಾಗಿದೆ replication_count ಕೊಳಗಳಲ್ಲಿ ಒಂದರಲ್ಲಿ,
  • ಒಂದು ಕೊಳದಲ್ಲಿ ತುಂಬಾ PG ಮತ್ತು ಇನ್ನೊಂದರಲ್ಲಿ ತುಂಬಾ ಕಡಿಮೆ.

ಈಗಾಗಲೇ ತಿಳಿಸಿದ ಕ್ಯಾಲ್ಕುಲೇಟರ್ ಅನ್ನು ಬಳಸೋಣ. ನಮೂದಿಸಬೇಕಾದದ್ದನ್ನು ಇದು ಸ್ಪಷ್ಟವಾಗಿ ತೋರಿಸುತ್ತದೆ ಮತ್ತು ತಾತ್ವಿಕವಾಗಿ, ಸಂಕೀರ್ಣವಾದ ಏನೂ ಇಲ್ಲ. ಅಗತ್ಯ ನಿಯತಾಂಕಗಳನ್ನು ಹೊಂದಿಸಿದ ನಂತರ, ನಾವು ಈ ಕೆಳಗಿನ ಶಿಫಾರಸುಗಳನ್ನು ಪಡೆಯುತ್ತೇವೆ:

ಹೇಳಿಕೆಯನ್ನು: ನೀವು ಮೊದಲಿನಿಂದ Ceph ಕ್ಲಸ್ಟರ್ ಅನ್ನು ಹೊಂದಿಸುತ್ತಿದ್ದರೆ, ಕ್ಯಾಲ್ಕುಲೇಟರ್‌ನ ಮತ್ತೊಂದು ಉಪಯುಕ್ತ ಕಾರ್ಯವೆಂದರೆ ಆಜ್ಞೆಗಳ ಉತ್ಪಾದನೆಯಾಗಿದ್ದು ಅದು ಕೋಷ್ಟಕದಲ್ಲಿ ನಿರ್ದಿಷ್ಟಪಡಿಸಿದ ನಿಯತಾಂಕಗಳೊಂದಿಗೆ ಮೊದಲಿನಿಂದ ಪೂಲ್‌ಗಳನ್ನು ರಚಿಸುತ್ತದೆ.

ಕೊನೆಯ ಕಾಲಮ್ ನಿಮಗೆ ನ್ಯಾವಿಗೇಟ್ ಮಾಡಲು ಸಹಾಯ ಮಾಡುತ್ತದೆ - ಸೂಚಿಸಲಾದ ಪಿಜಿ ಎಣಿಕೆ. ನಮ್ಮ ಸಂದರ್ಭದಲ್ಲಿ, ಎರಡನೆಯದು ಸಹ ಉಪಯುಕ್ತವಾಗಿದೆ, ಅಲ್ಲಿ ಪುನರಾವರ್ತನೆಯ ನಿಯತಾಂಕವನ್ನು ಸೂಚಿಸಲಾಗುತ್ತದೆ, ಏಕೆಂದರೆ ನಾವು ಪುನರಾವರ್ತನೆ ಗುಣಕವನ್ನು ಬದಲಾಯಿಸಲು ನಿರ್ಧರಿಸಿದ್ದೇವೆ.

ಆದ್ದರಿಂದ, ಮೊದಲು ನೀವು ನಕಲು ನಿಯತಾಂಕಗಳನ್ನು ಬದಲಾಯಿಸಬೇಕಾಗಿದೆ - ಇದನ್ನು ಮೊದಲು ಮಾಡುವುದು ಯೋಗ್ಯವಾಗಿದೆ, ಏಕೆಂದರೆ ಗುಣಕವನ್ನು ಕಡಿಮೆ ಮಾಡುವ ಮೂಲಕ, ನಾವು ಡಿಸ್ಕ್ ಜಾಗವನ್ನು ಮುಕ್ತಗೊಳಿಸುತ್ತೇವೆ. ಆಜ್ಞೆಯು ಕಾರ್ಯಗತಗೊಳಿಸಿದಂತೆ, ಲಭ್ಯವಿರುವ ಡಿಸ್ಕ್ ಜಾಗವು ಹೆಚ್ಚಾಗುತ್ತದೆ ಎಂದು ನೀವು ಗಮನಿಸಬಹುದು:

ceph osd pool $pool_name set $replication_size

ಮತ್ತು ಅದರ ಪೂರ್ಣಗೊಂಡ ನಂತರ, ನಾವು ಪ್ಯಾರಾಮೀಟರ್ ಮೌಲ್ಯಗಳನ್ನು ಬದಲಾಯಿಸುತ್ತೇವೆ pg_num и pgp_num ಕೆಳಗಿನಂತೆ:

ceph osd pool set $pool_name pg_num $pg_number
ceph osd pool set $pool_name pgp_num $pg_number

ಪ್ರಮುಖ: ನಾವು ಪ್ರತಿ ಪೂಲ್‌ನಲ್ಲಿ ಅನುಕ್ರಮವಾಗಿ PG ಗಳ ಸಂಖ್ಯೆಯನ್ನು ಬದಲಾಯಿಸಬೇಕು ಮತ್ತು ಎಚ್ಚರಿಕೆಗಳು ಕಣ್ಮರೆಯಾಗುವವರೆಗೆ ಇತರ ಪೂಲ್‌ಗಳಲ್ಲಿನ ಮೌಲ್ಯಗಳನ್ನು ಬದಲಾಯಿಸಬಾರದು "ಕಡಿಮೆಗೊಳಿಸಿದ ಡೇಟಾ ಪುನರಾವರ್ತನೆ" и "ಪಿಜಿಗಳ n-ಸಂಖ್ಯೆ ಕ್ಷೀಣಿಸಿದೆ".

ಕಮಾಂಡ್ ಔಟ್‌ಪುಟ್‌ಗಳನ್ನು ಬಳಸಿಕೊಂಡು ಎಲ್ಲವೂ ಸರಿಯಾಗಿದೆಯೇ ಎಂದು ನೀವು ಪರಿಶೀಲಿಸಬಹುದು ceph health detail и ceph -s.

ಪ್ರಕರಣ ಸಂಖ್ಯೆ 3. LVM ನಿಂದ Ceph RBD ಗೆ ವರ್ಚುವಲ್ ಯಂತ್ರವನ್ನು ಸ್ಥಳಾಂತರಿಸಲಾಗುತ್ತಿದೆ

ಒಂದು ಯೋಜನೆಯು ಬಾಡಿಗೆಗೆ ಪಡೆದ ಬೇರ್-ಮೆಟಲ್ ಸರ್ವರ್‌ಗಳಲ್ಲಿ ಸ್ಥಾಪಿಸಲಾದ ವರ್ಚುವಲ್ ಯಂತ್ರಗಳನ್ನು ಬಳಸುವ ಪರಿಸ್ಥಿತಿಯಲ್ಲಿ, ದೋಷ-ಸಹಿಷ್ಣು ಸಂಗ್ರಹಣೆಯ ಸಮಸ್ಯೆ ಹೆಚ್ಚಾಗಿ ಉದ್ಭವಿಸುತ್ತದೆ. ಈ ಸಂಗ್ರಹಣೆಯಲ್ಲಿ ಸಾಕಷ್ಟು ಸ್ಥಳಾವಕಾಶವಿದೆ ಎಂದು ಸಹ ಬಹಳ ಅಪೇಕ್ಷಣೀಯವಾಗಿದೆ ... ಮತ್ತೊಂದು ಸಾಮಾನ್ಯ ಪರಿಸ್ಥಿತಿ: ಸರ್ವರ್ನಲ್ಲಿ ಸ್ಥಳೀಯ ಸಂಗ್ರಹಣೆಯೊಂದಿಗೆ ವರ್ಚುವಲ್ ಯಂತ್ರವಿದೆ ಮತ್ತು ನೀವು ಡಿಸ್ಕ್ ಅನ್ನು ವಿಸ್ತರಿಸಬೇಕಾಗಿದೆ, ಆದರೆ ಹೋಗಲು ಎಲ್ಲಿಯೂ ಇಲ್ಲ, ಏಕೆಂದರೆ ಇಲ್ಲ ಸರ್ವರ್‌ನಲ್ಲಿ ಉಚಿತ ಡಿಸ್ಕ್ ಜಾಗ ಉಳಿದಿದೆ.

ಸಮಸ್ಯೆಯನ್ನು ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ಪರಿಹರಿಸಬಹುದು - ಉದಾಹರಣೆಗೆ, ಇನ್ನೊಂದು ಸರ್ವರ್‌ಗೆ (ಒಂದು ಇದ್ದರೆ) ಅಥವಾ ಹೊಸ ಡಿಸ್ಕ್‌ಗಳನ್ನು ಸರ್ವರ್‌ಗೆ ಸೇರಿಸುವ ಮೂಲಕ. ಆದರೆ ಇದನ್ನು ಮಾಡಲು ಯಾವಾಗಲೂ ಸಾಧ್ಯವಿಲ್ಲ, ಆದ್ದರಿಂದ LVM ನಿಂದ Ceph ಗೆ ವಲಸೆ ಹೋಗುವುದು ಈ ಸಮಸ್ಯೆಗೆ ಅತ್ಯುತ್ತಮ ಪರಿಹಾರವಾಗಿದೆ. ಈ ಆಯ್ಕೆಯನ್ನು ಆರಿಸುವ ಮೂಲಕ, ನಾವು ಸರ್ವರ್‌ಗಳ ನಡುವೆ ವಲಸೆಯ ಮುಂದಿನ ಪ್ರಕ್ರಿಯೆಯನ್ನು ಸರಳಗೊಳಿಸುತ್ತೇವೆ, ಏಕೆಂದರೆ ಸ್ಥಳೀಯ ಸಂಗ್ರಹಣೆಯನ್ನು ಒಂದು ಹೈಪರ್‌ವೈಸರ್‌ನಿಂದ ಇನ್ನೊಂದಕ್ಕೆ ಸ್ಥಳಾಂತರಿಸುವ ಅಗತ್ಯವಿಲ್ಲ. ಕೆಲಸ ನಡೆಯುತ್ತಿರುವಾಗ ನೀವು VM ಅನ್ನು ನಿಲ್ಲಿಸಬೇಕಾಗುತ್ತದೆ ಎಂಬುದು ಒಂದೇ ಕ್ಯಾಚ್.

ಕೆಳಗಿನ ಪಾಕವಿಧಾನವನ್ನು ತೆಗೆದುಕೊಳ್ಳಲಾಗಿದೆ ಈ ಬ್ಲಾಗ್‌ನಿಂದ ಲೇಖನ, ಇದರ ಸೂಚನೆಗಳನ್ನು ಕ್ರಿಯೆಯಲ್ಲಿ ಪರೀಕ್ಷಿಸಲಾಗಿದೆ. ಅಂದಹಾಗೆ, ತೊಂದರೆ-ಮುಕ್ತ ವಲಸೆಯ ವಿಧಾನವನ್ನು ಸಹ ಅಲ್ಲಿ ವಿವರಿಸಲಾಗಿದೆ, ಆದಾಗ್ಯೂ, ನಮ್ಮ ಸಂದರ್ಭದಲ್ಲಿ ಇದು ಸರಳವಾಗಿ ಅಗತ್ಯವಿಲ್ಲ, ಆದ್ದರಿಂದ ನಾವು ಅದನ್ನು ಪರಿಶೀಲಿಸಲಿಲ್ಲ. ನಿಮ್ಮ ಪ್ರಾಜೆಕ್ಟ್‌ಗೆ ಇದು ನಿರ್ಣಾಯಕವಾಗಿದ್ದರೆ, ಕಾಮೆಂಟ್‌ಗಳಲ್ಲಿ ಫಲಿತಾಂಶಗಳ ಬಗ್ಗೆ ಕೇಳಲು ನಾವು ಸಂತೋಷಪಡುತ್ತೇವೆ.

ಪ್ರಾಯೋಗಿಕ ಭಾಗಕ್ಕೆ ಹೋಗೋಣ. ಉದಾಹರಣೆಯಲ್ಲಿ ನಾವು virsh ಅನ್ನು ಬಳಸುತ್ತೇವೆ ಮತ್ತು ಅದರ ಪ್ರಕಾರ, libvirt. ಮೊದಲಿಗೆ, ಡೇಟಾವನ್ನು ಸ್ಥಳಾಂತರಿಸುವ Ceph ಪೂಲ್ ಅನ್ನು libvirt ಗೆ ಸಂಪರ್ಕಿಸಲಾಗಿದೆ ಎಂದು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಿ:

virsh pool-dumpxml $ceph_pool

ಪೂಲ್ ವಿವರಣೆಯು ಅಧಿಕೃತ ಡೇಟಾದೊಂದಿಗೆ Ceph ಗೆ ಸಂಪರ್ಕ ಡೇಟಾವನ್ನು ಹೊಂದಿರಬೇಕು.

ಮುಂದಿನ ಹಂತವೆಂದರೆ LVM ಇಮೇಜ್ ಅನ್ನು Ceph RBD ಗೆ ಪರಿವರ್ತಿಸಲಾಗಿದೆ. ಎಕ್ಸಿಕ್ಯೂಶನ್ ಸಮಯವು ಪ್ರಾಥಮಿಕವಾಗಿ ಚಿತ್ರದ ಗಾತ್ರವನ್ನು ಅವಲಂಬಿಸಿರುತ್ತದೆ:

qemu-img convert -p -O rbd /dev/main/$vm_image_name rbd:$ceph_pool/$vm_image_name

ಪರಿವರ್ತನೆಯ ನಂತರ, ಒಂದು LVM ಚಿತ್ರವು ಉಳಿಯುತ್ತದೆ, VM ಅನ್ನು RBD ಗೆ ಸ್ಥಳಾಂತರಿಸುವುದು ವಿಫಲವಾದರೆ ಮತ್ತು ನೀವು ಬದಲಾವಣೆಗಳನ್ನು ಹಿಂತಿರುಗಿಸಬೇಕಾದರೆ ಅದು ಉಪಯುಕ್ತವಾಗಿರುತ್ತದೆ. ಅಲ್ಲದೆ, ಬದಲಾವಣೆಗಳನ್ನು ತ್ವರಿತವಾಗಿ ಹಿಂತಿರುಗಿಸಲು ಸಾಧ್ಯವಾಗುವಂತೆ, ವರ್ಚುವಲ್ ಮೆಷಿನ್ ಕಾನ್ಫಿಗರೇಶನ್ ಫೈಲ್‌ನ ಬ್ಯಾಕಪ್ ಮಾಡೋಣ:

virsh dumpxml $vm_name > $vm_name.xml
cp $vm_name.xml $vm_name_backup.xml

... ಮತ್ತು ಮೂಲವನ್ನು ಸಂಪಾದಿಸಿ (vm_name.xml) ಡಿಸ್ಕ್ನ ವಿವರಣೆಯೊಂದಿಗೆ ಬ್ಲಾಕ್ ಅನ್ನು ಕಂಡುಹಿಡಿಯೋಣ (ಸಾಲಿನಿಂದ ಪ್ರಾರಂಭವಾಗುತ್ತದೆ <disk type='file' device='disk'> ಮತ್ತು ಇದರೊಂದಿಗೆ ಕೊನೆಗೊಳ್ಳುತ್ತದೆ </disk>) ಮತ್ತು ಅದನ್ನು ಈ ಕೆಳಗಿನ ರೂಪಕ್ಕೆ ತಗ್ಗಿಸಿ:

<disk type='network' device='disk'>
<driver name='qemu'/>
<auth username='libvirt'>
  <secret type='ceph' uuid='sec-ret-uu-id'/>
 </auth>
<source protocol='rbd' name='$ceph_pool/$vm_image_name>
  <host name='10.0.0.1' port='6789'/>
  <host name='10.0.0.2' port='6789'/>
</source>
<target dev='vda' bus='virtio'/> 
<alias name='virtio-disk0'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
</disk>

ಕೆಲವು ವಿವರಗಳನ್ನು ನೋಡೋಣ:

  1. ಪ್ರೋಟೋಕಾಲ್ಗೆ source Ceph RBD ಯಲ್ಲಿನ ಸಂಗ್ರಹಣೆಯ ವಿಳಾಸವನ್ನು ಸೂಚಿಸಲಾಗುತ್ತದೆ (ಇದು Ceph ಪೂಲ್ ಮತ್ತು RBD ಚಿತ್ರದ ಹೆಸರನ್ನು ಸೂಚಿಸುವ ವಿಳಾಸವಾಗಿದೆ, ಇದನ್ನು ಮೊದಲ ಹಂತದಲ್ಲಿ ನಿರ್ಧರಿಸಲಾಯಿತು).
  2. ಬ್ಲಾಕ್ನಲ್ಲಿ secret ಪ್ರಕಾರವನ್ನು ಸೂಚಿಸಲಾಗುತ್ತದೆ ceph, ಜೊತೆಗೆ ಅದರೊಂದಿಗೆ ಸಂಪರ್ಕಿಸಲು ರಹಸ್ಯದ UUID. ಇದರ uuid ಅನ್ನು ಆಜ್ಞೆಯನ್ನು ಬಳಸಿಕೊಂಡು ಕಂಡುಹಿಡಿಯಬಹುದು virsh secret-list.
  3. ಬ್ಲಾಕ್ನಲ್ಲಿ host Ceph ಮಾನಿಟರ್‌ಗಳಿಗೆ ವಿಳಾಸಗಳನ್ನು ಸೂಚಿಸಲಾಗುತ್ತದೆ.

ಕಾನ್ಫಿಗರೇಶನ್ ಫೈಲ್ ಅನ್ನು ಸಂಪಾದಿಸಿದ ನಂತರ ಮತ್ತು RBD ಗೆ LVM ಅನ್ನು ಪೂರ್ಣಗೊಳಿಸಿದ ನಂತರ, ನೀವು ಮಾರ್ಪಡಿಸಿದ ಕಾನ್ಫಿಗರೇಶನ್ ಫೈಲ್ ಅನ್ನು ಅನ್ವಯಿಸಬಹುದು ಮತ್ತು ವರ್ಚುವಲ್ ಯಂತ್ರವನ್ನು ಪ್ರಾರಂಭಿಸಬಹುದು:

virsh define $vm_name.xml
virsh start $vm_name

ವರ್ಚುವಲ್ ಯಂತ್ರವು ಸರಿಯಾಗಿ ಪ್ರಾರಂಭವಾಗಿದೆಯೇ ಎಂದು ಪರಿಶೀಲಿಸುವ ಸಮಯ ಇದು: ನೀವು ಕಂಡುಹಿಡಿಯಬಹುದು, ಉದಾಹರಣೆಗೆ, SSH ಮೂಲಕ ಅಥವಾ ಮೂಲಕ ಸಂಪರ್ಕಿಸುವ ಮೂಲಕ virsh.

ವರ್ಚುವಲ್ ಯಂತ್ರವು ಸರಿಯಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತಿದ್ದರೆ ಮತ್ತು ನೀವು ಯಾವುದೇ ಇತರ ಸಮಸ್ಯೆಗಳನ್ನು ಕಂಡುಹಿಡಿಯದಿದ್ದರೆ, ನಂತರ ನೀವು ಇನ್ನು ಮುಂದೆ ಬಳಸದ LVM ಚಿತ್ರವನ್ನು ಅಳಿಸಬಹುದು:

lvremove main/$vm_image_name

ತೀರ್ಮಾನಕ್ಕೆ

ವಿವರಿಸಿದ ಎಲ್ಲಾ ಪ್ರಕರಣಗಳನ್ನು ನಾವು ಪ್ರಾಯೋಗಿಕವಾಗಿ ಎದುರಿಸಿದ್ದೇವೆ - ಸೂಚನೆಗಳು ಇತರ ನಿರ್ವಾಹಕರು ಇದೇ ರೀತಿಯ ಸಮಸ್ಯೆಗಳನ್ನು ಪರಿಹರಿಸಲು ಸಹಾಯ ಮಾಡುತ್ತದೆ ಎಂದು ನಾವು ಭಾವಿಸುತ್ತೇವೆ. Ceph ಅನ್ನು ಬಳಸುವ ನಿಮ್ಮ ಅನುಭವದಿಂದ ನೀವು ಕಾಮೆಂಟ್‌ಗಳು ಅಥವಾ ಇತರ ರೀತಿಯ ಕಥೆಗಳನ್ನು ಹೊಂದಿದ್ದರೆ, ಅವುಗಳನ್ನು ಕಾಮೆಂಟ್‌ಗಳಲ್ಲಿ ನೋಡಲು ನಾವು ಸಂತೋಷಪಡುತ್ತೇವೆ!

ಪಿಎಸ್

ನಮ್ಮ ಬ್ಲಾಗ್‌ನಲ್ಲಿಯೂ ಓದಿ:

ಮೂಲ: www.habr.com

ಕಾಮೆಂಟ್ ಅನ್ನು ಸೇರಿಸಿ