5.8 ಮಿಲಿಯನ್ IOPS: ಏಕೆ ತುಂಬಾ?

ಹಲೋ ಹಬ್ರ್! ಬಿಗ್ ಡೇಟಾ ಮತ್ತು ಯಂತ್ರ ಕಲಿಕೆಗಾಗಿ ಡೇಟಾ ಸೆಟ್‌ಗಳು ಘಾತೀಯವಾಗಿ ಬೆಳೆಯುತ್ತಿವೆ ಮತ್ತು ನಾವು ಅವುಗಳನ್ನು ಮುಂದುವರಿಸಬೇಕಾಗಿದೆ. ಕಿಂಗ್‌ಸ್ಟನ್ ಬೂತ್‌ನಲ್ಲಿ ತೋರಿಸಿರುವ ಹೈ ಪರ್ಫಾರ್ಮೆನ್ಸ್ ಕಂಪ್ಯೂಟಿಂಗ್ (HPC, ಹೈ ಪರ್ಫಾರ್ಮೆನ್ಸ್ ಕಂಪ್ಯೂಟಿಂಗ್) ಕ್ಷೇತ್ರದಲ್ಲಿ ಮತ್ತೊಂದು ನವೀನ ತಂತ್ರಜ್ಞಾನದ ಕುರಿತು ನಮ್ಮ ಪೋಸ್ಟ್ ಸೂಪರ್‌ಕಂಪ್ಯೂಟಿಂಗ್-2019. ಇದು ಗ್ರಾಫಿಕ್ ಪ್ರೊಸೆಸಿಂಗ್ ಯೂನಿಟ್‌ಗಳು (ಜಿಪಿಯು) ಮತ್ತು ಜಿಪಿಯುಡೈರೆಕ್ಟ್ ಸ್ಟೋರೇಜ್ ಬಸ್ ತಂತ್ರಜ್ಞಾನದೊಂದಿಗೆ ಸರ್ವರ್‌ಗಳಲ್ಲಿ ಹೈ-ಎಂಡ್ ಡೇಟಾ ಸ್ಟೋರೇಜ್ ಸಿಸ್ಟಮ್‌ಗಳ (ಎಸ್‌ಡಿಎಸ್) ಬಳಕೆಯಾಗಿದೆ. ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆ ಮತ್ತು GPU ನಡುವಿನ ನೇರ ಡೇಟಾ ವಿನಿಮಯಕ್ಕೆ ಧನ್ಯವಾದಗಳು, CPU ಅನ್ನು ಬೈಪಾಸ್ ಮಾಡುವುದು, GPU ವೇಗವರ್ಧಕಗಳಿಗೆ ಡೇಟಾವನ್ನು ಲೋಡ್ ಮಾಡುವುದು ಪರಿಮಾಣದ ಕ್ರಮದಿಂದ ವೇಗಗೊಳ್ಳುತ್ತದೆ, ಆದ್ದರಿಂದ GPU ಗಳು ಒದಗಿಸುವ ಗರಿಷ್ಠ ಕಾರ್ಯಕ್ಷಮತೆಯಲ್ಲಿ ಬಿಗ್ ಡೇಟಾ ಅಪ್ಲಿಕೇಶನ್‌ಗಳು ರನ್ ಆಗುತ್ತವೆ. ಪ್ರತಿಯಾಗಿ, HPC ಸಿಸ್ಟಮ್ ಡೆವಲಪರ್‌ಗಳು ಕಿಂಗ್‌ಸ್ಟನ್ ಉತ್ಪಾದಿಸಿದಂತಹ ಹೆಚ್ಚಿನ I/O ವೇಗಗಳೊಂದಿಗೆ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಗಳಲ್ಲಿನ ಪ್ರಗತಿಯಲ್ಲಿ ಆಸಕ್ತಿ ಹೊಂದಿದ್ದಾರೆ.

5.8 ಮಿಲಿಯನ್ IOPS: ಏಕೆ ತುಂಬಾ?

GPU ಕಾರ್ಯಕ್ಷಮತೆಯು ಡೇಟಾ ಲೋಡಿಂಗ್ ಅನ್ನು ಮೀರಿಸುತ್ತದೆ

CUDA, ಸಾಮಾನ್ಯ ಉದ್ದೇಶದ ಅಪ್ಲಿಕೇಶನ್‌ಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು GPU-ಆಧಾರಿತ ಹಾರ್ಡ್‌ವೇರ್ ಮತ್ತು ಸಾಫ್ಟ್‌ವೇರ್ ಸಮಾನಾಂತರ ಕಂಪ್ಯೂಟಿಂಗ್ ಆರ್ಕಿಟೆಕ್ಚರ್ ಅನ್ನು 2007 ರಲ್ಲಿ ರಚಿಸಿದಾಗಿನಿಂದ, GPU ಗಳ ಹಾರ್ಡ್‌ವೇರ್ ಸಾಮರ್ಥ್ಯಗಳು ನಂಬಲಾಗದಷ್ಟು ಬೆಳೆದಿವೆ. ಇಂದು, GPU ಗಳನ್ನು ಬಿಗ್ ಡೇಟಾ, ಯಂತ್ರ ಕಲಿಕೆ (ML), ಮತ್ತು ಆಳವಾದ ಕಲಿಕೆ (DL) ನಂತಹ HPC ಅಪ್ಲಿಕೇಶನ್‌ಗಳಲ್ಲಿ ಹೆಚ್ಚಾಗಿ ಬಳಸಲಾಗುತ್ತದೆ.

ಪದಗಳ ಹೋಲಿಕೆಯ ಹೊರತಾಗಿಯೂ, ಕೊನೆಯ ಎರಡು ಕ್ರಮಾವಳಿಯ ವಿಭಿನ್ನ ಕಾರ್ಯಗಳಾಗಿವೆ ಎಂಬುದನ್ನು ಗಮನಿಸಿ. ML ರಚನಾತ್ಮಕ ಡೇಟಾದ ಆಧಾರದ ಮೇಲೆ ಕಂಪ್ಯೂಟರ್‌ಗೆ ತರಬೇತಿ ನೀಡುತ್ತದೆ, ಆದರೆ DL ನರಮಂಡಲದ ಪ್ರತಿಕ್ರಿಯೆಯ ಆಧಾರದ ಮೇಲೆ ಕಂಪ್ಯೂಟರ್‌ಗೆ ತರಬೇತಿ ನೀಡುತ್ತದೆ. ವ್ಯತ್ಯಾಸಗಳನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಸಹಾಯ ಮಾಡುವ ಉದಾಹರಣೆಯು ತುಂಬಾ ಸರಳವಾಗಿದೆ. ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಯಿಂದ ಲೋಡ್ ಮಾಡಲಾದ ಬೆಕ್ಕುಗಳು ಮತ್ತು ನಾಯಿಗಳ ಫೋಟೋಗಳ ನಡುವೆ ಕಂಪ್ಯೂಟರ್ ಪ್ರತ್ಯೇಕಿಸಬೇಕು ಎಂದು ಊಹಿಸೋಣ. ML ಗಾಗಿ, ನೀವು ಅನೇಕ ಟ್ಯಾಗ್‌ಗಳೊಂದಿಗೆ ಚಿತ್ರಗಳ ಗುಂಪನ್ನು ಸಲ್ಲಿಸಬೇಕು, ಪ್ರತಿಯೊಂದೂ ಪ್ರಾಣಿಗಳ ಒಂದು ನಿರ್ದಿಷ್ಟ ವೈಶಿಷ್ಟ್ಯವನ್ನು ವ್ಯಾಖ್ಯಾನಿಸುತ್ತದೆ. DL ಗಾಗಿ, ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಚಿತ್ರಗಳನ್ನು ಅಪ್‌ಲೋಡ್ ಮಾಡಲು ಸಾಕು, ಆದರೆ "ಇದು ಬೆಕ್ಕು" ಅಥವಾ "ಇದು ನಾಯಿ" ಎಂಬ ಒಂದೇ ಟ್ಯಾಗ್‌ನೊಂದಿಗೆ. ಚಿಕ್ಕ ಮಕ್ಕಳಿಗೆ ಹೇಗೆ ಕಲಿಸಲಾಗುತ್ತದೆ ಎಂಬುದಕ್ಕೆ ಡಿಎಲ್ ತುಂಬಾ ಹೋಲುತ್ತದೆ - ಅವರಿಗೆ ಪುಸ್ತಕಗಳಲ್ಲಿ ಮತ್ತು ಜೀವನದಲ್ಲಿ ನಾಯಿಗಳು ಮತ್ತು ಬೆಕ್ಕುಗಳ ಚಿತ್ರಗಳನ್ನು ಸರಳವಾಗಿ ತೋರಿಸಲಾಗುತ್ತದೆ (ಹೆಚ್ಚಾಗಿ, ವಿವರವಾದ ವ್ಯತ್ಯಾಸವನ್ನು ವಿವರಿಸದೆ), ಮತ್ತು ಮಗುವಿನ ಮೆದುಳು ಸ್ವತಃ ಪ್ರಾಣಿಗಳ ಪ್ರಕಾರವನ್ನು ನಿರ್ಧರಿಸಲು ಪ್ರಾರಂಭಿಸುತ್ತದೆ. ಹೋಲಿಕೆಗಾಗಿ ಕೆಲವು ನಿರ್ಣಾಯಕ ಸಂಖ್ಯೆಯ ಚಿತ್ರಗಳು ( ಅಂದಾಜಿನ ಪ್ರಕಾರ, ನಾವು ಬಾಲ್ಯದುದ್ದಕ್ಕೂ ಕೇವಲ ನೂರು ಅಥವಾ ಎರಡು ಪ್ರದರ್ಶನಗಳ ಬಗ್ಗೆ ಮಾತನಾಡುತ್ತಿದ್ದೇವೆ). DL ಅಲ್ಗಾರಿದಮ್‌ಗಳು ಇನ್ನೂ ಪರಿಪೂರ್ಣವಾಗಿಲ್ಲ: ನರಗಳ ನೆಟ್‌ವರ್ಕ್ ಚಿತ್ರಗಳನ್ನು ಗುರುತಿಸುವಲ್ಲಿ ಯಶಸ್ವಿಯಾಗಿ ಕೆಲಸ ಮಾಡಲು, GPU ಗೆ ಲಕ್ಷಾಂತರ ಚಿತ್ರಗಳನ್ನು ಫೀಡ್ ಮಾಡುವುದು ಮತ್ತು ಪ್ರಕ್ರಿಯೆಗೊಳಿಸುವುದು ಅವಶ್ಯಕ.

ಮುನ್ನುಡಿಯ ಸಾರಾಂಶ: GPU ಗಳ ಆಧಾರದ ಮೇಲೆ, ನೀವು ಬಿಗ್ ಡೇಟಾ, ML ಮತ್ತು DL ಕ್ಷೇತ್ರದಲ್ಲಿ HPC ಅಪ್ಲಿಕೇಶನ್‌ಗಳನ್ನು ರಚಿಸಬಹುದು, ಆದರೆ ಸಮಸ್ಯೆ ಇದೆ - ಡೇಟಾ ಸೆಟ್‌ಗಳು ತುಂಬಾ ದೊಡ್ಡದಾಗಿದ್ದು, ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಯಿಂದ GPU ಗೆ ಡೇಟಾವನ್ನು ಲೋಡ್ ಮಾಡುವ ಸಮಯವನ್ನು ಕಳೆಯಲಾಗುತ್ತದೆ. ಅಪ್ಲಿಕೇಶನ್‌ನ ಒಟ್ಟಾರೆ ಕಾರ್ಯಕ್ಷಮತೆಯನ್ನು ಕಡಿಮೆ ಮಾಡಲು ಪ್ರಾರಂಭಿಸುತ್ತದೆ. ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ಇತರ ಉಪವ್ಯವಸ್ಥೆಗಳಿಂದ ಬರುವ ನಿಧಾನಗತಿಯ I/O ಡೇಟಾದ ಕಾರಣದಿಂದಾಗಿ ವೇಗದ GPU ಗಳು ಕಡಿಮೆ ಬಳಕೆಯಾಗುತ್ತವೆ. CPU/ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಗೆ GPU ಮತ್ತು ಬಸ್‌ನ I/O ವೇಗದಲ್ಲಿನ ವ್ಯತ್ಯಾಸವು ಪರಿಮಾಣದ ಕ್ರಮವಾಗಿರಬಹುದು.

GPUDirect ಶೇಖರಣಾ ತಂತ್ರಜ್ಞಾನ ಹೇಗೆ ಕೆಲಸ ಮಾಡುತ್ತದೆ?

I/O ಪ್ರಕ್ರಿಯೆಯು CPU ನಿಂದ ನಿಯಂತ್ರಿಸಲ್ಪಡುತ್ತದೆ, ಮುಂದಿನ ಪ್ರಕ್ರಿಯೆಗಾಗಿ GPU ಗಳಿಗೆ ಸಂಗ್ರಹಣೆಯಿಂದ ಡೇಟಾವನ್ನು ಲೋಡ್ ಮಾಡುವ ಪ್ರಕ್ರಿಯೆಯಂತೆ. ಇದು ಪರಸ್ಪರ ತ್ವರಿತವಾಗಿ ಸಂವಹನ ನಡೆಸಲು GPUಗಳು ಮತ್ತು NVMe ಡ್ರೈವ್‌ಗಳ ನಡುವೆ ನೇರ ಪ್ರವೇಶವನ್ನು ಒದಗಿಸುವ ತಂತ್ರಜ್ಞಾನಕ್ಕಾಗಿ ವಿನಂತಿಗೆ ಕಾರಣವಾಯಿತು. NVIDIA ಇಂತಹ ತಂತ್ರಜ್ಞಾನವನ್ನು ಮೊದಲು ನೀಡಿತು ಮತ್ತು ಅದನ್ನು GPUDirect ಸಂಗ್ರಹಣೆ ಎಂದು ಕರೆಯಿತು. ವಾಸ್ತವವಾಗಿ, ಇದು ಅವರು ಹಿಂದೆ ಅಭಿವೃದ್ಧಿಪಡಿಸಿದ GPUDirect RDMA (ರಿಮೋಟ್ ಡೈರೆಕ್ಟ್ ಮೆಮೊರಿ ವಿಳಾಸ) ತಂತ್ರಜ್ಞಾನದ ಬದಲಾವಣೆಯಾಗಿದೆ.

5.8 ಮಿಲಿಯನ್ IOPS: ಏಕೆ ತುಂಬಾ?
NVIDIA ನ CEO ಜೆನ್ಸನ್ ಹುವಾಂಗ್, SC-19 ನಲ್ಲಿ GPUDirect RDMA ಯ ರೂಪಾಂತರವಾಗಿ GPUDirect ಸಂಗ್ರಹಣೆಯನ್ನು ಪ್ರಸ್ತುತಪಡಿಸುತ್ತಾರೆ. ಮೂಲ: NVIDIA

GPUDirect RDMA ಮತ್ತು GPUDirect ಸಂಗ್ರಹಣೆಯ ನಡುವಿನ ವ್ಯತ್ಯಾಸವು ವಿಳಾಸವನ್ನು ನಿರ್ವಹಿಸುವ ಸಾಧನಗಳಲ್ಲಿದೆ. GPUDirect RDMA ತಂತ್ರಜ್ಞಾನವು ಫ್ರಂಟ್-ಎಂಡ್ ನೆಟ್‌ವರ್ಕ್ ಇಂಟರ್‌ಫೇಸ್ ಕಾರ್ಡ್ (NIC) ಮತ್ತು GPU ಮೆಮೊರಿಯ ನಡುವೆ ನೇರವಾಗಿ ಡೇಟಾವನ್ನು ಸರಿಸಲು ಮರುರೂಪಿಸಲ್ಪಟ್ಟಿದೆ ಮತ್ತು GPUDirect ಸಂಗ್ರಹಣೆಯು ಸ್ಥಳೀಯ ಅಥವಾ ದೂರಸ್ಥ ಸಂಗ್ರಹಣೆಯ ನಡುವೆ NVMe ಅಥವಾ NVMe ಓವರ್ ಫ್ಯಾಬ್ರಿಕ್ (NVMe-oF) ಮತ್ತು ನೇರ ಡೇಟಾ ಮಾರ್ಗವನ್ನು ಒದಗಿಸುತ್ತದೆ. GPU ಮೆಮೊರಿ.

GPUDirect RDMA ಮತ್ತು GPUDirect ಸ್ಟೋರೇಜ್ ಎರಡೂ CPU ಮೆಮೊರಿಯಲ್ಲಿನ ಬಫರ್ ಮೂಲಕ ಅನಗತ್ಯ ಡೇಟಾ ಚಲನೆಯನ್ನು ತಪ್ಪಿಸುತ್ತವೆ ಮತ್ತು ನೆಟ್‌ವರ್ಕ್ ಕಾರ್ಡ್ ಅಥವಾ ಸಂಗ್ರಹಣೆಯಿಂದ ನೇರವಾಗಿ ಅಥವಾ GPU ಮೆಮೊರಿಯಿಂದ ಡೇಟಾವನ್ನು ಸರಿಸಲು ನೇರ ಮೆಮೊರಿ ಪ್ರವೇಶ (DMA) ಕಾರ್ಯವಿಧಾನವನ್ನು ಅನುಮತಿಸುತ್ತದೆ - ಎಲ್ಲವೂ ಕೇಂದ್ರ CPU ನಲ್ಲಿ ಲೋಡ್ ಆಗದೆ. GPUDirect ಸ್ಟೋರೇಜ್‌ಗಾಗಿ, ಸಂಗ್ರಹಣೆಯ ಸ್ಥಳವು ಅಪ್ರಸ್ತುತವಾಗುತ್ತದೆ: ಇದು GPU ಯುನಿಟ್‌ನೊಳಗೆ NVME ಡಿಸ್ಕ್ ಆಗಿರಬಹುದು, ರ್ಯಾಕ್‌ನ ಒಳಗೆ ಅಥವಾ NVMe-oF ನಂತೆ ನೆಟ್‌ವರ್ಕ್ ಮೂಲಕ ಸಂಪರ್ಕಗೊಂಡಿರಬಹುದು.

5.8 ಮಿಲಿಯನ್ IOPS: ಏಕೆ ತುಂಬಾ?
GPUDirect ಸಂಗ್ರಹಣೆಯ ಕಾರ್ಯಾಚರಣೆಯ ಯೋಜನೆ. ಮೂಲ: NVIDIA

NVMe ನಲ್ಲಿನ ಹೈ-ಎಂಡ್ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಗಳು HPC ಅಪ್ಲಿಕೇಶನ್ ಮಾರುಕಟ್ಟೆಯಲ್ಲಿ ಬೇಡಿಕೆಯಲ್ಲಿವೆ

ಜಿಪಿಯುಡೈರೆಕ್ಟ್ ಸ್ಟೋರೇಜ್ ಆಗಮನದೊಂದಿಗೆ, ಜಿಪಿಯುನ ಥ್ರೋಪುಟ್‌ಗೆ ಅನುಗುಣವಾಗಿ ಐ/ಒ ವೇಗದೊಂದಿಗೆ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಗಳನ್ನು ನೀಡಲು ದೊಡ್ಡ ಗ್ರಾಹಕರ ಆಸಕ್ತಿಯನ್ನು ಸೆಳೆಯಲಾಗುತ್ತದೆ ಎಂದು ಅರಿತುಕೊಂಡ ಎಸ್‌ಸಿ -19 ಪ್ರದರ್ಶನದಲ್ಲಿ ಕಿಂಗ್‌ಸ್ಟನ್ ಒಂದು ಸಿಸ್ಟಮ್‌ನ ಡೆಮೊವನ್ನು ತೋರಿಸಿದರು NVMe ಡಿಸ್ಕ್‌ಗಳನ್ನು ಆಧರಿಸಿದ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆ ಮತ್ತು GPU ಹೊಂದಿರುವ ಘಟಕ, ಇದು ಪ್ರತಿ ಸೆಕೆಂಡಿಗೆ ಸಾವಿರಾರು ಉಪಗ್ರಹ ಚಿತ್ರಗಳನ್ನು ವಿಶ್ಲೇಷಿಸುತ್ತದೆ. ನಾವು ಈಗಾಗಲೇ 10 DC1000M U.2 NVMe ಡ್ರೈವ್‌ಗಳ ಆಧಾರದ ಮೇಲೆ ಅಂತಹ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಯ ಬಗ್ಗೆ ಬರೆದಿದ್ದೇವೆ ಸೂಪರ್ ಕಂಪ್ಯೂಟರ್ ಪ್ರದರ್ಶನದ ವರದಿಯಲ್ಲಿ.

5.8 ಮಿಲಿಯನ್ IOPS: ಏಕೆ ತುಂಬಾ?
10 DC1000M U.2 NVMe ಡ್ರೈವ್‌ಗಳನ್ನು ಆಧರಿಸಿದ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಯು ಗ್ರಾಫಿಕ್ಸ್ ವೇಗವರ್ಧಕಗಳೊಂದಿಗೆ ಸರ್ವರ್ ಅನ್ನು ಸಮರ್ಪಕವಾಗಿ ಪೂರೈಸುತ್ತದೆ. ಮೂಲ: ಕಿಂಗ್ಸ್ಟನ್

ಈ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಯನ್ನು 1U ಅಥವಾ ದೊಡ್ಡದಾದ ರ್ಯಾಕ್ ಯೂನಿಟ್‌ನಂತೆ ವಿನ್ಯಾಸಗೊಳಿಸಲಾಗಿದೆ ಮತ್ತು DC1000M U.2 NVMe ಡ್ರೈವ್‌ಗಳ ಸಂಖ್ಯೆಯನ್ನು ಅವಲಂಬಿಸಿ ಅಳೆಯಬಹುದು, ಪ್ರತಿಯೊಂದೂ 3.84-7.68 TB ಸಾಮರ್ಥ್ಯ ಹೊಂದಿದೆ. DC1000M ಯು.2 ಫಾರ್ಮ್ ಫ್ಯಾಕ್ಟರ್‌ನಲ್ಲಿ ಕಿಂಗ್‌ಸ್ಟನ್‌ನ ಡೇಟಾ ಸೆಂಟರ್ ಡ್ರೈವ್‌ಗಳ ಮೊದಲ NVMe SSD ಮಾದರಿಯಾಗಿದೆ. ಇದು ಸಹಿಷ್ಣುತೆಯ ರೇಟಿಂಗ್ ಅನ್ನು ಹೊಂದಿದೆ (DWPD, ಡ್ರೈವ್ ದಿನಕ್ಕೆ ಬರೆಯುತ್ತದೆ), ಇದು ಡ್ರೈವ್‌ನ ಖಾತರಿಯ ಜೀವನಕ್ಕಾಗಿ ದಿನಕ್ಕೆ ಒಮ್ಮೆ ಅದರ ಪೂರ್ಣ ಸಾಮರ್ಥ್ಯಕ್ಕೆ ಡೇಟಾವನ್ನು ಪುನಃ ಬರೆಯಲು ಅನುವು ಮಾಡಿಕೊಡುತ್ತದೆ.

ಉಬುಂಟು 3.13 LTS ಆಪರೇಟಿಂಗ್ ಸಿಸ್ಟಂನಲ್ಲಿನ fio v18.04.3 ಪರೀಕ್ಷೆಯಲ್ಲಿ, Linux ಕರ್ನಲ್ 5.0.0-31-ಜೆನೆರಿಕ್, ಪ್ರದರ್ಶನ ಸಂಗ್ರಹಣೆ ಮಾದರಿಯು 5.8 ಮಿಲಿಯನ್ IOPS ನ ಓದುವ ವೇಗವನ್ನು (ಸುಸ್ಥಿರವಾದ ಓದುವಿಕೆ) ತೋರಿಸಿದೆ. ) 23.8 Gbit/s.

ಕಿಂಗ್‌ಸ್ಟನ್‌ನ SSD ವ್ಯಾಪಾರ ವ್ಯವಸ್ಥಾಪಕ ಏರಿಯಲ್ ಪೆರೆಜ್, ಹೊಸ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಗಳ ಕುರಿತು ಹೀಗೆ ಹೇಳಿದರು: "ಸಾಂಪ್ರದಾಯಿಕವಾಗಿ ಸಂಗ್ರಹಣೆಯೊಂದಿಗೆ ಸಂಬಂಧ ಹೊಂದಿರುವ ಅನೇಕ ಡೇಟಾ ವರ್ಗಾವಣೆ ಅಡಚಣೆಗಳನ್ನು ನಿವಾರಿಸಲು U.2 NVMe SSD ಪರಿಹಾರಗಳೊಂದಿಗೆ ಮುಂದಿನ ಪೀಳಿಗೆಯ ಸರ್ವರ್‌ಗಳನ್ನು ಸಜ್ಜುಗೊಳಿಸಲು ನಾವು ಸಿದ್ಧರಾಗಿದ್ದೇವೆ. NVMe SSD ಡ್ರೈವ್‌ಗಳು ಮತ್ತು ನಮ್ಮ ಪ್ರೀಮಿಯಂ ಸರ್ವರ್ ಪ್ರೀಮಿಯರ್ DRAM ಸಂಯೋಜನೆಯು ಕಿಂಗ್‌ಸ್ಟನ್ ಅನ್ನು ಉದ್ಯಮದ ಅತ್ಯಂತ ಸಮಗ್ರವಾದ ಎಂಡ್-ಟು-ಎಂಡ್ ಡೇಟಾ ಪರಿಹಾರ ಪೂರೈಕೆದಾರರನ್ನಾಗಿ ಮಾಡುತ್ತದೆ.

5.8 ಮಿಲಿಯನ್ IOPS: ಏಕೆ ತುಂಬಾ?
gfio v3.13 ಪರೀಕ್ಷೆಯು DC23.8M U.1000 NVMe ಡ್ರೈವ್‌ಗಳಲ್ಲಿನ ಡೆಮೊ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಗಾಗಿ 2 Gbps ಥ್ರೋಪುಟ್ ಅನ್ನು ತೋರಿಸಿದೆ. ಮೂಲ: ಕಿಂಗ್ಸ್ಟನ್

GPUDirect ಸ್ಟೋರೇಜ್ ಅಥವಾ ಅಂತಹುದೇ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿಕೊಂಡು HPC ಅಪ್ಲಿಕೇಶನ್‌ಗಳಿಗೆ ವಿಶಿಷ್ಟವಾದ ಸಿಸ್ಟಮ್ ಹೇಗಿರುತ್ತದೆ? ಇದು ಒಂದು ರ್ಯಾಕ್‌ನೊಳಗಿನ ಕ್ರಿಯಾತ್ಮಕ ಘಟಕಗಳ ಭೌತಿಕ ಪ್ರತ್ಯೇಕತೆಯೊಂದಿಗಿನ ವಾಸ್ತುಶಿಲ್ಪವಾಗಿದೆ: RAM ಗಾಗಿ ಒಂದು ಅಥವಾ ಎರಡು ಘಟಕಗಳು, GPU ಮತ್ತು CPU ಕಂಪ್ಯೂಟಿಂಗ್ ನೋಡ್‌ಗಳಿಗಾಗಿ ಹಲವಾರು, ಮತ್ತು ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಗಳಿಗಾಗಿ ಒಂದು ಅಥವಾ ಹೆಚ್ಚಿನ ಘಟಕಗಳು.

GPUDirect ಸಂಗ್ರಹಣೆಯ ಘೋಷಣೆಯೊಂದಿಗೆ ಮತ್ತು ಇತರ GPU ಮಾರಾಟಗಾರರಿಂದ ಇದೇ ರೀತಿಯ ತಂತ್ರಜ್ಞಾನಗಳ ಸಂಭವನೀಯ ಹೊರಹೊಮ್ಮುವಿಕೆಯೊಂದಿಗೆ, ಉನ್ನತ-ಕಾರ್ಯಕ್ಷಮತೆಯ ಕಂಪ್ಯೂಟಿಂಗ್‌ನಲ್ಲಿ ಬಳಸಲು ವಿನ್ಯಾಸಗೊಳಿಸಲಾದ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಗಳಿಗಾಗಿ ಕಿಂಗ್‌ಸ್ಟನ್‌ನ ಬೇಡಿಕೆಯು ವಿಸ್ತರಿಸುತ್ತಿದೆ. ಮಾರ್ಕರ್ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಯಿಂದ ಡೇಟಾವನ್ನು ಓದುವ ವೇಗವಾಗಿರುತ್ತದೆ, GPU ಜೊತೆಗೆ ಕಂಪ್ಯೂಟಿಂಗ್ ಘಟಕದ ಪ್ರವೇಶದ್ವಾರದಲ್ಲಿ 40- ಅಥವಾ 100-Gbit ನೆಟ್ವರ್ಕ್ ಕಾರ್ಡ್‌ಗಳ ಥ್ರೋಪುಟ್‌ಗೆ ಹೋಲಿಸಬಹುದು. ಹೀಗಾಗಿ, ಫ್ಯಾಬ್ರಿಕ್ ಮೂಲಕ ಬಾಹ್ಯ NVMe ಸೇರಿದಂತೆ ಅಲ್ಟ್ರಾ-ಹೈ-ಸ್ಪೀಡ್ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಗಳು HPC ಅಪ್ಲಿಕೇಶನ್‌ಗಳಿಗೆ ವಿಲಕ್ಷಣದಿಂದ ಮುಖ್ಯವಾಹಿನಿಗೆ ಹೋಗುತ್ತವೆ. ವಿಜ್ಞಾನ ಮತ್ತು ಆರ್ಥಿಕ ಲೆಕ್ಕಾಚಾರಗಳ ಜೊತೆಗೆ, ಅವರು ಸೇಫ್ ಸಿಟಿ ಮೆಟ್ರೋಪಾಲಿಟನ್ ಮಟ್ಟದಲ್ಲಿ ಭದ್ರತಾ ವ್ಯವಸ್ಥೆಗಳು ಅಥವಾ ಸಾರಿಗೆ ಕಣ್ಗಾವಲು ಕೇಂದ್ರಗಳಂತಹ ಅನೇಕ ಇತರ ಪ್ರಾಯೋಗಿಕ ಕ್ಷೇತ್ರಗಳಲ್ಲಿ ಅಪ್ಲಿಕೇಶನ್ ಅನ್ನು ಕಂಡುಕೊಳ್ಳುತ್ತಾರೆ, ಅಲ್ಲಿ ಸೆಕೆಂಡಿಗೆ ಮಿಲಿಯನ್‌ಗಟ್ಟಲೆ HD ಚಿತ್ರಗಳ ಗುರುತಿಸುವಿಕೆ ಮತ್ತು ಗುರುತಿನ ವೇಗದ ಅಗತ್ಯವಿದೆ" ಎಂದು ವಿವರಿಸಲಾಗಿದೆ. ಉನ್ನತ ಶೇಖರಣಾ ವ್ಯವಸ್ಥೆಯ ಮಾರುಕಟ್ಟೆ ಗೂಡು

ಕಿಂಗ್ಸ್ಟನ್ ಉತ್ಪನ್ನಗಳ ಕುರಿತು ಹೆಚ್ಚಿನ ಮಾಹಿತಿಯನ್ನು ಇಲ್ಲಿ ಕಾಣಬಹುದು ಅಧಿಕೃತ ವೆಬ್ಸೈಟ್ ಕಂಪನಿ.

ಮೂಲ: www.habr.com

ಕಾಮೆಂಟ್ ಅನ್ನು ಸೇರಿಸಿ