Ushbu maqolada men eng mashhur virtualizatsiya platformalaridan biri - VMware vSphere bilan ishlaydigan All Flash AccelStor massivlarining xususiyatlari haqida gapirmoqchiman. Xususan, All Flash kabi kuchli vositadan maksimal samaraga erishishga yordam beradigan parametrlarga e'tibor qarating.
AccelStor NeoSapphire™ barcha Flash massivlari
AccelStor massivi va VMware vSphere virtualizatsiya tizimining birgalikda ishlashini joylashtirish va keyingi konfiguratsiyaning butun jarayonini bir necha bosqichlarga bo'lish mumkin:
- SAN tarmog'ining ulanish topologiyasi va konfiguratsiyasini amalga oshirish;
- All Flash massivini sozlash;
- ESXi xostlarini sozlash;
- Virtual mashinalarni sozlash.
Namuna uskuna sifatida AccelStor NeoSapphire™ Fiber Channel massivlari va iSCSI massivlari ishlatilgan. Asosiy dastur VMware vSphere 6.7U1.
Ushbu maqolada tasvirlangan tizimlarni o'rnatishdan oldin, ishlash muammolari bo'yicha VMware hujjatlarini o'qib chiqishingiz tavsiya etiladi (
Ulanish topologiyasi va SAN tarmoq konfiguratsiyasi
SAN tarmog'ining asosiy komponentlari ESXi xostlaridagi HBA, SAN kalitlari va massiv tugunlaridir. Bunday tarmoq uchun odatiy topologiya quyidagicha ko'rinadi:
Bu erda "Switch" atamasi alohida jismoniy kalit yoki kalitlar to'plamini (Mato) va turli xizmatlar o'rtasida taqsimlangan qurilmani (tolali kanalda VSAN va iSCSI holatida VLAN) anglatadi. Ikkita mustaqil kalitlardan/matolardan foydalanish mumkin bo'lgan nosozlik nuqtasini yo'q qiladi.
Xostlarni massivga to'g'ridan-to'g'ri ulash, garchi qo'llab-quvvatlansa ham, tavsiya etilmaydi. Barcha Flash massivlarining ishlashi ancha yuqori. Va maksimal tezlik uchun massivning barcha portlaridan foydalanish kerak. Shuning uchun, xostlar va NeoSapphire™ o'rtasida kamida bitta kalit mavjudligi majburiydir.
Xost HBA-da ikkita portning mavjudligi ham maksimal ishlashga erishish va nosozliklarga chidamliligini ta'minlash uchun majburiy talabdir.
Fiber Channel interfeysidan foydalanganda, rayonlashtirish tashabbuskorlar va maqsadlar o'rtasidagi mumkin bo'lgan to'qnashuvlarni bartaraf etish uchun sozlanishi kerak. Hududlar "bir tashabbuskor port - bir yoki bir nechta massiv portlari" tamoyili asosida qurilgan.
Agar siz iSCSI orqali ulanishni boshqa xizmatlar bilan ulashilgan kalitdan foydalansangiz, u holda iSCSI trafigini alohida VLAN ichida izolyatsiya qilish zarur. Shuningdek, tarmoqdagi paketlar hajmini oshirish va shu bilan uzatish paytida qo'shimcha ma'lumot miqdorini kamaytirish uchun Jumbo Frames (MTU = 9000) ni qo'llab-quvvatlashni yoqish tavsiya etiladi. Ammo shuni esda tutish kerakki, to'g'ri ishlash uchun MTU parametrini barcha tarmoq komponentlarida "boshlovchi-switch-target" zanjiri bo'ylab o'zgartirish kerak.
All Flash massivini sozlash
Massiv allaqachon tuzilgan guruhlarga ega bo'lgan mijozlarga yetkaziladi
Qulaylik uchun bir vaqtning o'zida ma'lum hajmdagi bir nechta jildlarni to'plamni yaratish uchun funksionallik mavjud. Odatiy bo'lib, nozik hajmlar yaratiladi, chunki bu mavjud saqlash joyidan yanada samarali foydalanish imkonini beradi (shu jumladan, kosmik melioratsiyani qo'llab-quvvatlash). Ishlash nuqtai nazaridan, "nozik" va "qalin" hajmlar o'rtasidagi farq 1% dan oshmaydi. Biroq, agar siz massivdan "barcha sharbatni siqib chiqarmoqchi" bo'lsangiz, har doim har qanday "nozik" hajmni "qalin" ga aylantirishingiz mumkin. Ammo shuni esda tutish kerakki, bunday operatsiyani qaytarib bo'lmaydi.
Keyinchalik, yaratilgan jildlarni "nashr qilish" va ACL-lar (iSCSI uchun IP-manzillar va FC uchun WWPN) va massiv portlari bo'yicha jismoniy ajratish yordamida xostlardan ularga kirish huquqlarini o'rnatish qoladi. iSCSI modellari uchun bu Target yaratish orqali amalga oshiriladi.
FC modellari uchun nashr qilish massivning har bir porti uchun LUN yaratish orqali amalga oshiriladi.
O'rnatish jarayonini tezlashtirish uchun xostlarni guruhlarga birlashtirish mumkin. Bundan tashqari, agar xost ko'p portli FC HBA dan foydalansa (bu amalda ko'pincha sodir bo'ladi), tizim avtomatik ravishda bunday HBA portlari bittadan farq qiluvchi WWPNlar tufayli bitta xostga tegishli ekanligini aniqlaydi. Target/LUN ning ommaviy yaratilishi ikkala interfeys uchun ham qo'llab-quvvatlanadi.
iSCSI interfeysidan foydalanishda muhim eslatma, unumdorlikni oshirish uchun bir vaqtning o'zida hajmlar uchun bir nechta nishonlarni yaratishdir, chunki maqsaddagi navbatni o'zgartirib bo'lmaydi va samarali ravishda muammo tug'diradi.
ESXi xostlarini sozlash
ESXi xost tomonida asosiy konfiguratsiya butunlay kutilgan stsenariyga muvofiq amalga oshiriladi. iSCSI ulanishi tartibi:
- Dasturiy ta'minot iSCSI adapterini qo'shing (agar u allaqachon qo'shilgan bo'lsa yoki siz iSCSI Hardware Adapterdan foydalansangiz talab qilinmaydi);
- iSCSI trafigi o'tadigan vSwitch-ni yaratish va unga jismoniy ulanish va VMkernalni qo'shish;
- Dynamic Discovery-ga massiv manzillarini qo'shish;
- Ma'lumotlar omborini yaratish
Ba'zi muhim eslatmalar:
- Umumiy holatda, albatta, siz mavjud vSwitch-dan foydalanishingiz mumkin, lekin alohida vSwitch bo'lsa, xost sozlamalarini boshqarish ancha oson bo'ladi.
- Ishlash muammolarini oldini olish uchun boshqarish va iSCSI trafigini alohida jismoniy havolalar va/yoki VLAN-larga ajratish kerak.
- VMkernal IP manzillari va All Flash massivining tegishli portlari ishlash bilan bog'liq muammolar tufayli yana bitta quyi tarmoq ichida bo'lishi kerak.
- VMware qoidalariga muvofiq nosozliklarga chidamliligini ta'minlash uchun vSwitch kamida ikkita jismoniy ulanishga ega bo'lishi kerak
- Agar Jumbo Frames ishlatilsa, siz vSwitch va VMkernal MTU-ni o'zgartirishingiz kerak
- VMware tavsiyalariga ko'ra, iSCSI trafigi bilan ishlashda foydalaniladigan jismoniy adapterlar uchun Teaming va Failover-ni sozlash kerakligini eslatish foydali bo'ladi. Xususan, har bir VMkernal faqat bitta yuqoriga ulanish orqali ishlashi kerak, ikkinchi yuqoriga ulanishi foydalanilmagan rejimga o'tkazilishi kerak. Xatolarga chidamlilik uchun siz ikkita VMkernalni qo'shishingiz kerak, ularning har biri o'zining yuqori ulanishi orqali ishlaydi.
VMkernel adapteri (vmk#)
Jismoniy tarmoq adapteri (vmnic#)
vmk1 (Storage01)
Faol adapterlar
vmnic2
Ishlatilmagan adapterlar
vmnic3
vmk2 (Storage02)
Faol adapterlar
vmnic3
Ishlatilmagan adapterlar
vmnic2
Fiber Channel orqali ulanish uchun dastlabki qadamlar talab qilinmaydi. Siz darhol ma'lumotlar omborini yaratishingiz mumkin.
Ma'lumotlar do'konini yaratganingizdan so'ng, maqsad/LUN yo'llari uchun Round Robin siyosati eng samarali sifatida ishlatilishiga ishonch hosil qilishingiz kerak.
Odatiy bo'lib, VMware sozlamalari ushbu siyosatdan sxema bo'yicha foydalanishni ta'minlaydi: birinchi yo'l orqali 1000 ta so'rov, ikkinchi yo'l orqali keyingi 1000 ta so'rov va boshqalar. Xost va ikkita boshqaruvchi massiv o'rtasidagi bunday o'zaro ta'sir muvozanatsiz bo'ladi. Shuning uchun biz Esxcli/PowerCLI orqali Round Robin siyosati = 1 parametrini o'rnatishni tavsiya qilamiz.
parametrlar
Esxcli uchun:
- Mavjud LUNlar ro'yxati
esxcli saqlash nmp qurilmalar ro'yxati
- Qurilma nomidan nusxa oling
- Round Robin siyosatini o'zgartirish
esxcli saqlash nmp psp roundrobin deviceconfig set —type=iops —iops=1 —device=“Device_ID”
Ko'pgina zamonaviy ilovalar tarmoqli kengligidan maksimal darajada foydalanish va CPU yukini kamaytirish uchun katta ma'lumotlar paketlarini almashish uchun mo'ljallangan. Shuning uchun, ESXi sukut bo'yicha saqlash qurilmasiga 32767 Kb gacha bo'lgan qismlarga kiritish-chiqarish so'rovlarini chiqaradi. Biroq, ba'zi stsenariylar uchun kichikroq bo'laklarni almashtirish samaraliroq bo'ladi. AccelStor massivlari uchun bu quyidagi stsenariylar:
- Virtual mashina Legacy BIOS o'rniga UEFI-dan foydalanadi
- vSphere replikatsiyasidan foydalanadi
Bunday stsenariylar uchun Disk.DiskMaxIOSize parametrining qiymatini 4096 ga o'zgartirish tavsiya etiladi.
iSCSI ulanishlari uchun ulanish barqarorligini oshirish va uzatilgan paketlarni tasdiqlash uchun DelayedAck kechikishini o'chirish uchun Login Timeout parametrini 30 ga (standart 5) o'zgartirish tavsiya etiladi. Ikkala variant ham vSphere Client-da: Xost → Sozlash → Saqlash → Saqlash adapterlari → iSCSI adapteri uchun kengaytirilgan parametrlar
Juda nozik nuqta - bu ma'lumotlar ombori uchun ishlatiladigan jildlar soni. Boshqarish qulayligi uchun massivning butun hajmi uchun bitta katta hajmni yaratish istagi borligi aniq. Biroq, bir nechta jildlarning mavjudligi va shunga mos ravishda ma'lumotlar ombori umumiy ishlashga foydali ta'sir ko'rsatadi (quyida navbatlar haqida batafsilroq). Shuning uchun biz kamida ikkita jild yaratishni tavsiya qilamiz.
Nisbatan yaqin vaqtgacha, VMware eng yuqori samaradorlikka erishish uchun yana bitta ma'lumotlar do'konidagi virtual mashinalar sonini cheklashni maslahat berdi. Biroq, hozir, ayniqsa VDI tarqalishi bilan, bu muammo endi u qadar keskin emas. Ammo bu uzoq vaqtdan beri mavjud bo'lgan qoidani bekor qilmaydi - intensiv IO'ni talab qiladigan virtual mashinalarni turli ma'lumotlar do'konlarida tarqatish. Har bir hajmdagi virtual mashinalarning optimal sonini aniqlash uchun undan yaxshiroq narsa yo'q
Virtual mashinalarni sozlash
Virtual mashinalarni o'rnatishda maxsus talablar yo'q, aniqrog'i ular juda oddiy:
- Mumkin bo'lgan eng yuqori VM versiyasidan foydalanish (moslik)
- Virtual mashinalarni zich joylashtirishda, masalan, VDI-da RAM hajmini o'rnatishda ehtiyot bo'lish kerak (chunki sukut bo'yicha, ishga tushirilganda, operativ xotiraga mos keladigan o'lchamdagi sahifa fayli yaratiladi, bu foydali quvvatni sarflaydi va uning ishlashiga ta'sir qiladi. yakuniy ijro)
- IO nuqtai nazaridan eng samarali adapter versiyalaridan foydalaning: tarmoq turi VMXNET 3 va SCSI tipidagi PVSCSI
- Maksimal ishlash uchun Thick Provision Eager Zeroed disk turidan foydalaning va saqlash joyidan maksimal foydalanish uchun Thin Provisioningdan foydalaning.
- Iloji bo'lsa, Virtual Disk Limit yordamida kirish/chiqarish muhim bo'lmagan mashinalarning ishlashini cheklang
- VMware Tools-ni o'rnatganingizga ishonch hosil qiling
Navbatlar haqida eslatmalar
Navbat (yoki Ajoyib kirish/chiqarish) - ma'lum bir qurilma/ilova uchun istalgan vaqtda qayta ishlashni kutayotgan kiritish/chiqarish so'rovlari (SCSI buyruqlari) soni. Navbat to'lib ketgan taqdirda, QFULL xatolar chiqariladi, bu oxir-oqibat kechikish parametrining oshishiga olib keladi. Disk (shpindel) saqlash tizimlaridan foydalanganda, nazariy jihatdan, navbat qanchalik baland bo'lsa, ularning ishlashi shunchalik yuqori bo'ladi. Biroq, siz uni suiiste'mol qilmasligingiz kerak, chunki QFULL bilan ishlash oson. All Flash tizimlarida, bir tomondan, hamma narsa biroz soddaroq: axir, massivda kechikishlar mavjud bo'lib, ular kattalikdan pastroqdir va shuning uchun ko'pincha navbatlar hajmini alohida tartibga solishning hojati yo'q. Ammo boshqa tomondan, ba'zi foydalanish stsenariylarida (aniq virtual mashinalar uchun IO talablarida kuchli egrilik, maksimal ishlash uchun testlar va boshqalar) navbatlarning parametrlarini o'zgartirmasangiz, hech bo'lmaganda qanday ko'rsatkichlarni tushunish kerak. erishish mumkin, va, asosiy narsa qaysi yo'llar bilan.
AccelStor All Flash massivida hajmlar yoki kirish/chiqarish portlariga nisbatan hech qanday cheklovlar yo'q. Agar kerak bo'lsa, hatto bitta jild massivning barcha resurslarini qabul qilishi mumkin. Navbatdagi yagona cheklov iSCSI maqsadlari uchundir. Shu sababli, ushbu chegarani engib o'tish uchun har bir jild uchun bir nechta (ideal 8 donagacha) maqsadlarni yaratish zarurati yuqorida ko'rsatilgan. Yana takrorlaymizki, AccelStor massivlari juda samarali echimlardir. Shuning uchun, maksimal tezlikka erishish uchun tizimning barcha interfeys portlaridan foydalanishingiz kerak.
ESXi xost tomonida vaziyat butunlay boshqacha. Uy egasining o'zi barcha ishtirokchilar uchun resurslardan teng foydalanish amaliyotini qo'llaydi. Shuning uchun mehmon OS va HBA uchun alohida IO navbatlari mavjud. Mehmon OS uchun navbatlar navbatdan virtual SCSI adapteri va virtual diskiga birlashtiriladi:
HBA navbati muayyan turga/sotuvchiga bog'liq:
Virtual mashinaning yakuniy ishlashi xost komponentlari orasidagi eng past navbat chuqurligi chegarasi bilan aniqlanadi.
Ushbu qiymatlar tufayli biz ma'lum bir konfiguratsiyada olishimiz mumkin bo'lgan ishlash ko'rsatkichlarini baholashimiz mumkin. Misol uchun, biz 0.5 ms kechikish bilan virtual mashinaning nazariy ishlashini (blokni bog'lamasdan) bilmoqchimiz. Keyin uning IOPS = (1,000/kechikish) * Ajoyib kiritish/chiqarishlar (navbat chuqurligi chegarasi)
misollar
misol 1
- FC Emulex HBA adapteri
- Har bir maʼlumot doʻkoniga bitta VM
- VMware Paravirtual SCSI adapteri
Bu yerda Navbat chuqurligi chegarasi Emulex HBA tomonidan belgilanadi. Shuning uchun IOPS = (1000/0.5)*32 = 64K
misol 2
- VMware iSCSI dasturiy ta'minot adapteri
- Har bir maʼlumot doʻkoniga bitta VM
- VMware Paravirtual SCSI adapteri
Bu erda Navbat chuqurligi chegarasi allaqachon Paravirtual SCSI adapteri tomonidan belgilanadi. Shuning uchun IOPS = (1000/0.5)*64 = 128K
Barcha Flash AccelStor massivlarining eng yaxshi modellari (masalan,
Natijada, virtual ma'lumotlar markazining barcha tavsiflangan komponentlarini to'g'ri konfiguratsiya qilish bilan siz ishlash jihatidan juda ta'sirli natijalarga erishishingiz mumkin.
4K Tasodifiy, 70% o'qish/30% yozish
Darhaqiqat, haqiqiy dunyo uni oddiy formula bilan tasvirlash mumkin bo'lganidan ancha murakkabroqdir. Bitta xost har doim turli xil konfiguratsiyalar va IO talablariga ega bo'lgan bir nechta virtual mashinalarga ega. Kirish/chiqarish jarayoni esa quvvati cheksiz bo'lmagan xost protsessori tomonidan amalga oshiriladi. Shunday qilib, bir xil imkoniyatlarni to'liq ochish uchun
Manba: www.habr.com