CSE: vCloud ನಲ್ಲಿರುವವರಿಗೆ ಕುಬರ್ನೆಟ್ಸ್

CSE: vCloud ನಲ್ಲಿರುವವರಿಗೆ ಕುಬರ್ನೆಟ್ಸ್
ಎಲ್ಲರೂ ಹಲೋ!

ನಮ್ಮ ಸಣ್ಣ ತಂಡವು ಇತ್ತೀಚೆಗೆ, ಮತ್ತು ಖಂಡಿತವಾಗಿಯೂ ಇದ್ದಕ್ಕಿದ್ದಂತೆ ಅಲ್ಲ, ಕೆಲವು (ಮತ್ತು ಭವಿಷ್ಯದಲ್ಲಿ ಎಲ್ಲಾ) ಉತ್ಪನ್ನಗಳನ್ನು ಕುಬರ್ನೆಟ್ಸ್ಗೆ ಸರಿಸಲು ಬೆಳೆದಿದೆ ಎಂದು ಹೇಳಲು ಸಾಧ್ಯವಿಲ್ಲ.

ಇದಕ್ಕೆ ಹಲವು ಕಾರಣಗಳಿದ್ದವು, ಆದರೆ ನಮ್ಮ ಕಥೆ ಹೋಲಿವರ್ ಬಗ್ಗೆ ಅಲ್ಲ.

ಮೂಲಸೌಕರ್ಯ ನೆಲೆಗೆ ಸಂಬಂಧಿಸಿದಂತೆ ನಮಗೆ ಸ್ವಲ್ಪ ಆಯ್ಕೆ ಇರಲಿಲ್ಲ. vCloud ನಿರ್ದೇಶಕ ಮತ್ತು vCloud ನಿರ್ದೇಶಕ. ನಾವು ಹೊಸದನ್ನು ಆರಿಸಿದ್ದೇವೆ ಮತ್ತು ಪ್ರಾರಂಭಿಸಲು ನಿರ್ಧರಿಸಿದ್ದೇವೆ.

ಮತ್ತೊಮ್ಮೆ, "ಹಾರ್ಡ್ ವೇ" ಮೂಲಕ ನೋಡುವಾಗ, ನಿಯೋಜನೆ ಮತ್ತು ಗಾತ್ರದಂತಹ ಕನಿಷ್ಟ ಮೂಲಭೂತ ಪ್ರಕ್ರಿಯೆಗಳನ್ನು ಸ್ವಯಂಚಾಲಿತಗೊಳಿಸುವ ಸಾಧನವು ನಿನ್ನೆ ಅಗತ್ಯವಿದೆ ಎಂದು ನಾನು ಬೇಗನೆ ತೀರ್ಮಾನಕ್ಕೆ ಬಂದಿದ್ದೇನೆ. Google ಗೆ ಆಳವಾದ ಡೈವ್ VMware ಕಂಟೈನರ್ ಸರ್ವಿಸ್ ಎಕ್ಸ್‌ಟೆನ್ಶನ್ (CSE) ನಂತಹ ಉತ್ಪನ್ನವನ್ನು ಬೆಳಕಿಗೆ ತಂದಿದೆ - ಇದು vCloud ನಲ್ಲಿರುವವರಿಗೆ k8s ಕ್ಲಸ್ಟರ್‌ಗಳ ರಚನೆ ಮತ್ತು ಗಾತ್ರವನ್ನು ಸ್ವಯಂಚಾಲಿತಗೊಳಿಸಲು ನಿಮಗೆ ಅನುಮತಿಸುವ ಮುಕ್ತ ಮೂಲ ಉತ್ಪನ್ನವಾಗಿದೆ.

ಹಕ್ಕುತ್ಯಾಗ: CSE ತನ್ನ ಮಿತಿಗಳನ್ನು ಹೊಂದಿದೆ, ಆದರೆ ನಮ್ಮ ಉದ್ದೇಶಗಳಿಗಾಗಿ ಇದು ಪರಿಪೂರ್ಣವಾಗಿದೆ. ಅಲ್ಲದೆ, ಪರಿಹಾರವನ್ನು ಕ್ಲೌಡ್ ಪೂರೈಕೆದಾರರು ಬೆಂಬಲಿಸಬೇಕು, ಆದರೆ ಸರ್ವರ್ ಭಾಗವು ಸಹ ಮುಕ್ತ ಮೂಲವಾಗಿರುವುದರಿಂದ, ಅದನ್ನು ಲಭ್ಯವಾಗುವಂತೆ ನಿಮ್ಮ ಹತ್ತಿರದ ವ್ಯವಸ್ಥಾಪಕರನ್ನು ಕೇಳಿ :)

ಇದನ್ನು ಬಳಸಲು ಪ್ರಾರಂಭಿಸಲು, ನಿಮಗೆ vCloud ಸಂಸ್ಥೆಯಲ್ಲಿ ನಿರ್ವಾಹಕ ಖಾತೆ ಮತ್ತು ಕ್ಲಸ್ಟರ್‌ಗಾಗಿ ಹಿಂದೆ ರಚಿಸಲಾದ ರೂಟ್ ಮಾಡಿದ ನೆಟ್‌ವರ್ಕ್ ಅಗತ್ಯವಿದೆ (ನಿಯೋಜನೆ ಪ್ರಕ್ರಿಯೆಯಲ್ಲಿ, ನಿಮಗೆ ಈ ನೆಟ್‌ವರ್ಕ್‌ನಿಂದ ಇಂಟರ್ನೆಟ್ ಪ್ರವೇಶ ಬೇಕಾಗುತ್ತದೆ, ಫೈರ್‌ವಾಲ್ / NAT ಅನ್ನು ಕಾನ್ಫಿಗರ್ ಮಾಡಲು ಮರೆಯಬೇಡಿ). ಸಂಬೋಧನೆ ಪರವಾಗಿಲ್ಲ. ಈ ಉದಾಹರಣೆಯಲ್ಲಿ, ನಾವು 10.0.240.0/24 ಅನ್ನು ತೆಗೆದುಕೊಳ್ಳೋಣ

CSE: vCloud ನಲ್ಲಿರುವವರಿಗೆ ಕುಬರ್ನೆಟ್ಸ್

ರಚನೆಯ ನಂತರ, ಕ್ಲಸ್ಟರ್ ಅನ್ನು ಹೇಗಾದರೂ ನಿರ್ವಹಿಸಬೇಕಾಗಿರುವುದರಿಂದ, ರಚಿಸಿದ ನೆಟ್‌ವರ್ಕ್‌ಗೆ ರೂಟಿಂಗ್‌ನೊಂದಿಗೆ VPN ಅನ್ನು ಹೊಂದಲು ಶಿಫಾರಸು ಮಾಡಲಾಗಿದೆ. ನಮ್ಮ ಸಂಸ್ಥೆಯ ಎಡ್ಜ್ ಗೇಟ್‌ವೇಯಲ್ಲಿ ಕಾನ್ಫಿಗರ್ ಮಾಡಲಾದ ಪ್ರಮಾಣಿತ SSL VPN ಅನ್ನು ನಾವು ಬಳಸುತ್ತೇವೆ.

ಮುಂದೆ, k8s ಕ್ಲಸ್ಟರ್‌ಗಳನ್ನು ನಿರ್ವಹಿಸುವ CSE ಕ್ಲೈಂಟ್ ಅನ್ನು ನೀವು ಸ್ಥಾಪಿಸಬೇಕಾಗಿದೆ. ನನ್ನ ಸಂದರ್ಭದಲ್ಲಿ, ಇದು ಕೆಲಸ ಮಾಡುವ ಲ್ಯಾಪ್‌ಟಾಪ್ ಮತ್ತು ಆಟೊಮೇಷನ್ ಅನ್ನು ಚಾಲನೆ ಮಾಡುವ ಒಂದೆರಡು ಚೆನ್ನಾಗಿ ಮರೆಮಾಡಿದ ಕಂಟೈನರ್ ಆಗಿದೆ.

ಕ್ಲೈಂಟ್‌ಗೆ ಪೈಥಾನ್ ಆವೃತ್ತಿ 3.7.3 ಮತ್ತು ಹೆಚ್ಚಿನದನ್ನು ಸ್ಥಾಪಿಸುವ ಅಗತ್ಯವಿದೆ ಮತ್ತು ಮಾಡ್ಯೂಲ್ ಅನ್ನು ಸ್ಥಾಪಿಸಲಾಗಿದೆ vcd-cli, ಆದ್ದರಿಂದ ಎರಡನ್ನೂ ಸ್ಥಾಪಿಸೋಣ.

pip3 install vcd-cli

pip3 install container-service-extension

ಅನುಸ್ಥಾಪನೆಯ ನಂತರ, ನಾವು CSE ಆವೃತ್ತಿಯನ್ನು ಪರಿಶೀಲಿಸುತ್ತೇವೆ ಮತ್ತು ಕೆಳಗಿನವುಗಳನ್ನು ಪಡೆಯುತ್ತೇವೆ:

# vcd cse version
Error: No such command "cse".

ಅನಿರೀಕ್ಷಿತ, ಆದರೆ ಸರಿಪಡಿಸಬಹುದಾದ. ಅದು ಬದಲಾದಂತೆ, CSE ಅನ್ನು vcd-cli ಗೆ ಮಾಡ್ಯೂಲ್ ಆಗಿ ಲಗತ್ತಿಸಬೇಕಾಗಿದೆ.
ಇದನ್ನು ಮಾಡಲು, ನೀವು ಮೊದಲು ನಮ್ಮ ಸಂಸ್ಥೆಗೆ vcd-cli ಗೆ ಲಾಗ್ ಇನ್ ಮಾಡಬೇಕು:

# vcd login MyCloud.provider.com org-dev admin
Password: 
admin logged in, org: 'org-dev', vdc: 'org-dev_vDC01'

ಇದರ ನಂತರ, vcd-cli ಕಾನ್ಫಿಗರೇಶನ್ ಫೈಲ್ ಅನ್ನು ರಚಿಸುತ್ತದೆ ~/.vcd-cli/profiles.yaml
ಕೊನೆಯಲ್ಲಿ ನೀವು ಈ ಕೆಳಗಿನವುಗಳನ್ನು ಸೇರಿಸಬೇಕಾಗಿದೆ:

extensions:
  - container_service_extension.client.cse

ನಂತರ ನಾವು ಮತ್ತೊಮ್ಮೆ ಪರಿಶೀಲಿಸುತ್ತೇವೆ:

# vcd cse version
CSE, Container Service Extension for VMware vCloud Director, version 2.5.0

ಕ್ಲೈಂಟ್ ಸ್ಥಾಪನೆಯ ಹಂತವು ಪೂರ್ಣಗೊಂಡಿದೆ. ಮೊದಲ ಕ್ಲಸ್ಟರ್ ಅನ್ನು ನಿಯೋಜಿಸಲು ಪ್ರಯತ್ನಿಸೋಣ.
CSE ಹಲವಾರು ಸೆಟ್ ಬಳಕೆಯ ನಿಯತಾಂಕಗಳನ್ನು ಹೊಂದಿದೆ, ಅವೆಲ್ಲವನ್ನೂ ವೀಕ್ಷಿಸಬಹುದು ಇಲ್ಲಿ.

ಮೊದಲಿಗೆ, ಭವಿಷ್ಯದ ಕ್ಲಸ್ಟರ್‌ಗೆ ಪಾಸ್‌ವರ್ಡ್‌ರಹಿತ ಪ್ರವೇಶಕ್ಕಾಗಿ ಕೀಗಳನ್ನು ರಚಿಸೋಣ. ಈ ಅಂಶವು ಮುಖ್ಯವಾಗಿದೆ, ಏಕೆಂದರೆ ಪೂರ್ವನಿಯೋಜಿತವಾಗಿ, ನೋಡ್‌ಗಳಿಗೆ ಪಾಸ್‌ವರ್ಡ್ ಲಾಗಿನ್ ಅನ್ನು ನಿಷ್ಕ್ರಿಯಗೊಳಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ನೀವು ಕೀಗಳನ್ನು ಹೊಂದಿಸದಿದ್ದರೆ, ವರ್ಚುವಲ್ ಮೆಷಿನ್ ಕನ್ಸೋಲ್‌ಗಳ ಮೂಲಕ ನೀವು ಸಾಕಷ್ಟು ಕೆಲಸವನ್ನು ಪಡೆಯಬಹುದು, ಅದು ಅನುಕೂಲಕರವಲ್ಲ.

# ssh-keygen
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa): 
Created directory '/root/.ssh'.
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.

ಕ್ಲಸ್ಟರ್ ರಚಿಸಲು ಪ್ರಾರಂಭಿಸಲು ಪ್ರಯತ್ನಿಸೋಣ:

vcd cse cluster create MyCluster --network k8s_cluster_net --ssh-key ~/.ssh/id_rsa.pub --nodes 3 --enable-nfs

ನಾವು ದೋಷವನ್ನು ಪಡೆದರೆ ದೋಷ: ಸೆಷನ್ ಅವಧಿ ಮುಗಿದಿದೆ ಅಥವಾ ಬಳಕೆದಾರರು ಲಾಗ್ ಇನ್ ಆಗಿಲ್ಲ. ದಯವಿಟ್ಟು ಮರು-ಲಾಗಿನ್ ಮಾಡಿ. — ಮೇಲೆ ವಿವರಿಸಿದಂತೆ vcd-cli ಗೆ ಮತ್ತೆ ಲಾಗ್ ಇನ್ ಮಾಡಿ ಮತ್ತು ಮತ್ತೆ ಪ್ರಯತ್ನಿಸಿ.

ಈ ಬಾರಿ ಎಲ್ಲವೂ ಸುಸೂತ್ರವಾಗಿದ್ದು, ಕ್ಲಸ್ಟರ್ ರಚಿಸುವ ಕಾರ್ಯ ಆರಂಭವಾಗಿದೆ.

cluster operation: Creating cluster vApp 'MyCluster' (38959587-54f4-4a49-8f2e-61c3a3e879e0) from template 'photon-v2_k8-1.12_weave-2.3.0' (revision 1)

ಕಾರ್ಯವನ್ನು ಪೂರ್ಣಗೊಳಿಸಲು ಇದು ಸುಮಾರು 20 ನಿಮಿಷಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ; ಈ ಮಧ್ಯೆ, ಮೂಲ ಉಡಾವಣಾ ನಿಯತಾಂಕಗಳನ್ನು ನೋಡೋಣ.

—network — ನಾವು ಮೊದಲೇ ರಚಿಸಿದ ನೆಟ್‌ವರ್ಕ್.
—ssh-key — ನಾವು ರಚಿಸಿದ ಕೀಲಿಗಳನ್ನು ಕ್ಲಸ್ಟರ್ ನೋಡ್‌ಗಳಿಗೆ ಬರೆಯಲಾಗುತ್ತದೆ
-ನೋಡ್ಸ್ ಎನ್ - ಕ್ಲಸ್ಟರ್‌ನಲ್ಲಿರುವ ವರ್ಕರ್ ನೋಡ್‌ಗಳ ಸಂಖ್ಯೆ. ಯಾವಾಗಲೂ ಒಬ್ಬ ಮಾಸ್ಟರ್ ಇರುತ್ತಾನೆ, ಇದು CSE ಮಿತಿಯಾಗಿದೆ
-enable-nfs — ನಿರಂತರ ಸಂಪುಟಗಳ ಅಡಿಯಲ್ಲಿ NFS ಷೇರುಗಳಿಗಾಗಿ ಹೆಚ್ಚುವರಿ ನೋಡ್ ಅನ್ನು ರಚಿಸಿ. ಇದು ಸ್ವಲ್ಪ ಪೆಡಲ್ ಆಯ್ಕೆಯಾಗಿದೆ; ಸ್ವಲ್ಪ ಸಮಯದ ನಂತರ ಅದು ಏನು ಮಾಡುತ್ತದೆ ಎಂಬುದನ್ನು ನಾವು ಟ್ಯೂನಿಂಗ್ ಮಾಡಲು ಹಿಂತಿರುಗುತ್ತೇವೆ.

ಏತನ್ಮಧ್ಯೆ, vCloud ನಲ್ಲಿ ನೀವು ಕ್ಲಸ್ಟರ್ ರಚನೆಯನ್ನು ದೃಷ್ಟಿಗೋಚರವಾಗಿ ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡಬಹುದು
CSE: vCloud ನಲ್ಲಿರುವವರಿಗೆ ಕುಬರ್ನೆಟ್ಸ್

ಕ್ಲಸ್ಟರ್ ರಚಿಸುವ ಕಾರ್ಯ ಪೂರ್ಣಗೊಂಡ ನಂತರ, ಅದು ಬಳಕೆಗೆ ಸಿದ್ಧವಾಗಿದೆ.

ಆಜ್ಞೆಯೊಂದಿಗೆ ನಿಯೋಜನೆಯ ಸರಿಯಾದತೆಯನ್ನು ಪರಿಶೀಲಿಸೋಣ vcd cse ಕ್ಲಸ್ಟರ್ ಮಾಹಿತಿ MyCluster

CSE: vCloud ನಲ್ಲಿರುವವರಿಗೆ ಕುಬರ್ನೆಟ್ಸ್

ಮುಂದೆ ನಾವು ಕ್ಲಸ್ಟರ್ ಕಾನ್ಫಿಗರೇಶನ್ ಅನ್ನು ಬಳಸಲು ಪಡೆಯಬೇಕು kubectl

# vcd cse cluster config MyCluster > ./.kube/config

ಮತ್ತು ನೀವು ಅದನ್ನು ಬಳಸಿಕೊಂಡು ಕ್ಲಸ್ಟರ್‌ನ ಸ್ಥಿತಿಯನ್ನು ಪರಿಶೀಲಿಸಬಹುದು:

CSE: vCloud ನಲ್ಲಿರುವವರಿಗೆ ಕುಬರ್ನೆಟ್ಸ್

ಈ ಹಂತದಲ್ಲಿ, ಕ್ಲಸ್ಟರ್ ನಿರಂತರ ಸಂಪುಟಗಳೊಂದಿಗೆ ಕಥೆಗಾಗಿ ಇಲ್ಲದಿದ್ದರೆ, ಷರತ್ತುಬದ್ಧವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ ಎಂದು ಪರಿಗಣಿಸಬಹುದು. ನಾವು vCloud ನಲ್ಲಿರುವ ಕಾರಣ, ನಮಗೆ vSphere ಪ್ರೊವೈಡರ್ ಅನ್ನು ಬಳಸಲು ಸಾಧ್ಯವಾಗುವುದಿಲ್ಲ. ಆಯ್ಕೆ --enable-nfs ಈ ಉಪದ್ರವವನ್ನು ಸುಗಮಗೊಳಿಸಲು ವಿನ್ಯಾಸಗೊಳಿಸಲಾಗಿದೆ, ಆದರೆ ಅದು ಸಂಪೂರ್ಣವಾಗಿ ಕೆಲಸ ಮಾಡಲಿಲ್ಲ. ಹಸ್ತಚಾಲಿತ ಹೊಂದಾಣಿಕೆ ಅಗತ್ಯವಿದೆ.

ಪ್ರಾರಂಭಿಸಲು, ನಮ್ಮ ನೋಡ್ vCloud ನಲ್ಲಿ ಪ್ರತ್ಯೇಕ ಸ್ವತಂತ್ರ ಡಿಸ್ಕ್ ಅನ್ನು ರಚಿಸಬೇಕಾಗಿದೆ. ಕ್ಲಸ್ಟರ್ ಅನ್ನು ಅಳಿಸಿದರೆ ನಮ್ಮ ಡೇಟಾವು ಕಣ್ಮರೆಯಾಗುವುದಿಲ್ಲ ಎಂದು ಇದು ಖಾತರಿಪಡಿಸುತ್ತದೆ. ಅಲ್ಲದೆ, ಡಿಸ್ಕ್ ಅನ್ನು NFS ಗೆ ಸಂಪರ್ಕಪಡಿಸಿ

# vcd disk create nfs-shares-1 100g --description 'Kubernetes NFS shares'
# vcd vapp attach mycluster nfsd-9604 nfs-shares-1

ಅದರ ನಂತರ, ನಾವು ನಮ್ಮ NFS ನೋಡ್‌ಗೆ ssh (ನೀವು ನಿಜವಾಗಿಯೂ ಕೀಗಳನ್ನು ರಚಿಸಿದ್ದೀರಾ?) ಮೂಲಕ ಹೋಗುತ್ತೇವೆ ಮತ್ತು ಅಂತಿಮವಾಗಿ ಡಿಸ್ಕ್ ಅನ್ನು ಸಂಪರ್ಕಿಸುತ್ತೇವೆ:

root@nfsd-9604:~# parted /dev/sdb
(parted) mklabel gpt
Warning: The existing disk label on /dev/sdb will be destroyed and all data on
this disk will be lost. Do you want to continue?
Yes/No? yes
(parted) unit GB
(parted) mkpart primary 0 100
(parted) print
Model: VMware Virtual disk (scsi)
Disk /dev/sdb: 100GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End    Size   File system  Name     Flags
 1      0.00GB  100GB  100GB               primary

(parted) quit
root@nfsd-9604:~# mkfs -t ext4 /dev/sdb1
Creating filesystem with 24413696 4k blocks and 6111232 inodes
Filesystem UUID: 8622c0f5-4044-4ebf-95a5-0372256b34f0
Superblock backups stored on blocks:
	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
	4096000, 7962624, 11239424, 20480000, 23887872

Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

ಡೇಟಾಕ್ಕಾಗಿ ಡೈರೆಕ್ಟರಿಯನ್ನು ರಚಿಸಿ ಮತ್ತು ಅಲ್ಲಿ ತಾಜಾ ವಿಭಾಗವನ್ನು ಆರೋಹಿಸಿ:

mkdir /export
echo '/dev/sdb1  /export   ext4  defaults   0 0' >> /etc/fstab
mount -a

ಐದು ಪರೀಕ್ಷಾ ವಿಭಾಗಗಳನ್ನು ರಚಿಸೋಣ ಮತ್ತು ಅವುಗಳನ್ನು ಕ್ಲಸ್ಟರ್‌ಗಾಗಿ ಹಂಚಿಕೊಳ್ಳೋಣ:

>cd /export
>mkdir vol1 vol2 vol3 vol4 vol5
>vi /etc/exports
#Добавим это в конец файла
/export/vol1 *(rw,sync,no_root_squash,no_subtree_check)
/export/vol2 *(rw,sync,no_root_squash,no_subtree_check)
/export/vol3 *(rw,sync,no_root_squash,no_subtree_check)
/export/vol4 *(rw,sync,no_root_squash,no_subtree_check)
/export/vol5 *(rw,sync,no_root_squash,no_subtree_check)
#:wq! ;)
#Далее - экспортируем разделы
>exportfs -r

ಈ ಎಲ್ಲಾ ಮ್ಯಾಜಿಕ್ ನಂತರ, ನಾವು ನಮ್ಮ ಕ್ಲಸ್ಟರ್‌ನಲ್ಲಿ ಈ ರೀತಿಯ PV ಮತ್ತು PVC ಅನ್ನು ರಚಿಸಬಹುದು:
ಪಿವಿ:

cat <<EOF | kubectl apply -f -
apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfs-vol1
spec:
  capacity:
    storage: 10Gi
  accessModes:
    - ReadWriteMany
  nfs:
    # Same IP as the NFS host we ssh'ed to earlier.
    server: 10.150.200.22
    path: "/export/vol1"
EOF

ಪಿವಿಸಿ:

cat <<EOF | kubectl apply -f -
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: nfs-pvc
spec:
  accessModes:
    - ReadWriteMany
  storageClassName: ""
  resources:
    requests:
      storage: 10Gi
EOF

ಇಲ್ಲಿಯೇ ಒಂದು ಕ್ಲಸ್ಟರ್ ಸೃಷ್ಟಿಯ ಕಥೆ ಕೊನೆಗೊಳ್ಳುತ್ತದೆ ಮತ್ತು ಅದರ ಜೀವನ ಚಕ್ರದ ಕಥೆಯು ಪ್ರಾರಂಭವಾಗುತ್ತದೆ. ಬೋನಸ್ ಆಗಿ, ಸಂಪನ್ಮೂಲಗಳನ್ನು ಕೆಲವೊಮ್ಮೆ ಉಳಿಸಲು ಅಥವಾ ಉಳಿಸಲು ನಿಮಗೆ ಅನುಮತಿಸುವ ಎರಡು ಉಪಯುಕ್ತ CSE ಆಜ್ಞೆಗಳಿವೆ:

#Увеличиваем размер кластера до 8 воркер нод
>cse cluster resize MyCluster --network k8s_cluster_net --nodes 8

#Выводим ненужные ноды из кластера с их последующим удалением
>vcd cse node delete MyCluster node-1a2v node-6685 --yes

ನಿಮ್ಮ ಸಮಯಕ್ಕಾಗಿ ಎಲ್ಲರಿಗೂ ಧನ್ಯವಾದಗಳು, ನೀವು ಯಾವುದೇ ಪ್ರಶ್ನೆಗಳನ್ನು ಹೊಂದಿದ್ದರೆ, ಕಾಮೆಂಟ್‌ಗಳಲ್ಲಿ ಕೇಳಿ.

ಮೂಲ: www.habr.com

ಕಾಮೆಂಟ್ ಅನ್ನು ಸೇರಿಸಿ