ဤဆောင်းပါးတွင်၊ VMware vSphere တွင် လူကြိုက်အများဆုံး virtualization ပလပ်ဖောင်းတစ်ခုနှင့် အလုပ်လုပ်သော Flash AccelStor array များအားလုံး၏ အင်္ဂါရပ်များအကြောင်း ပြောပြလိုပါသည်။ အထူးသဖြင့်၊ All Flash ကဲ့သို့ အစွမ်းထက်သည့်ကိရိယာကို အသုံးပြုခြင်းမှ သင့်အား အမြင့်ဆုံးအကျိုးသက်ရောက်မှုကို ရရှိစေရန် ကူညီပေးမည့် အဆိုပါကန့်သတ်ချက်များကို အာရုံစိုက်ပါ။
AccelStor NeoSapphire™ Flash အခင်းအကျင်းအားလုံး
ဖြန့်ကျက်ခြင်း လုပ်ငန်းစဉ်တစ်ခုလုံးနှင့် AccelStor array နှင့် VMware vSphere virtualization စနစ်၏ ပူးတွဲလုပ်ဆောင်မှု၏ နောက်ဆက်တွဲပုံစံဖွဲ့စည်းပုံကို အဆင့်များစွာ ခွဲခြားနိုင်သည်-
- ချိတ်ဆက်မှု topology နှင့် SAN ကွန်ရက်ဖွဲ့စည်းပုံတို့ကို အကောင်အထည်ဖော်ခြင်း၊
- Flash အခင်းအကျင်းအားလုံးကို စနစ်ထည့်သွင်းခြင်း
- ESXi တန်ဆာပလာများကို ပြင်ဆင်ခြင်း၊
- အတုအယောင် စက်များကို စနစ်ထည့်သွင်းခြင်း။
AccelStor NeoSapphire™ Fiber Channel array နှင့် iSCSI အခင်းအကျင်းများကို နမူနာ ဟာ့ဒ်ဝဲအဖြစ် အသုံးပြုခဲ့သည်။ အခြေခံဆော့ဖ်ဝဲသည် VMware vSphere 6.7U1 ဖြစ်သည်။
ဤဆောင်းပါးတွင်ဖော်ပြထားသော စနစ်များကို အသုံးမပြုမီ၊ စွမ်းဆောင်ရည်ဆိုင်ရာ ပြဿနာများနှင့် ပတ်သက်၍ VMware မှ စာရွက်စာတမ်းများကို ဖတ်ရန် အကြံပြုလိုသည် (
ချိတ်ဆက်မှု topology နှင့် SAN ကွန်ရက်ဖွဲ့စည်းပုံ
SAN ကွန်ရက်၏ အဓိက အစိတ်အပိုင်းများမှာ ESXi hosts များတွင် HBAs၊ SAN ခလုတ်များနှင့် array nodes များဖြစ်သည်။ ထိုသို့သောကွန်ရက်တစ်ခုအတွက် ပုံမှန် topology သည် ဤကဲ့သို့ဖြစ်လိမ့်မည်-
ဤနေရာတွင် Switch ဟူသောအသုံးအနှုန်းသည် သီးခြားရုပ်ပိုင်းဆိုင်ရာခလုတ် သို့မဟုတ် ခလုတ်အစုံ (Fabric) နှင့် မတူညီသောဝန်ဆောင်မှုများကြားတွင် မျှဝေထားသည့်ကိရိယာ (iSCSI ၏ဖြစ်ရပ်တွင် Fiber Channel နှင့် VLAN တွင် VSAN) ကို ရည်ညွှန်းသည်။ အမှီအခိုကင်းသော ခလုတ်နှစ်ခု/ Fabrics ကိုအသုံးပြုခြင်းဖြင့် ချို့ယွင်းမှုဖြစ်နိုင်ချေကို ဖယ်ရှားပေးလိမ့်မည်။
အခင်းအကျင်းသို့ host ၏တိုက်ရိုက်ချိတ်ဆက်မှုကို ပံ့ပိုးထားသော်လည်း၊ အလွန်အမင်း မထောက်ခံပါ။ Flash အခင်းအကျင်းအားလုံး၏ စွမ်းဆောင်ရည်သည် အလွန်မြင့်မားသည်။ အမြင့်ဆုံးမြန်နှုန်းအတွက်၊ array ၏ ports အားလုံးကို အသုံးပြုရပါမည်။ ထို့ကြောင့်၊ host နှင့် NeoSapphire™ အကြား အနည်းဆုံး ခလုတ်တစ်ခု ရှိနေခြင်းသည် မဖြစ်မနေ လိုအပ်ပါသည်။
host HBA တွင် port နှစ်ခုရှိနေခြင်းသည် အမြင့်ဆုံးစွမ်းဆောင်ရည်ရရှိရန်နှင့် အမှားခံနိုင်ရည်ရှိစေရန်အတွက် မဖြစ်မနေလိုအပ်ချက်တစ်ခုဖြစ်သည်။
Fiber Channel အင်တာဖေ့စ်ကို အသုံးပြုသည့်အခါ အစပြုသူများနှင့် ပစ်မှတ်များကြား ဖြစ်နိုင်ချေရှိသော တိုက်မိမှုများကို ဖယ်ရှားရန် ဇုန်သတ်မှတ်ခြင်းကို ချိန်ညှိရပါမည်။ ဇုန်များကို "initiator port တစ်ခု - တစ်ခု သို့မဟုတ် တစ်ခုထက်ပိုသော array ports" ၏မူအရ တည်ဆောက်ထားသည်။
အကယ်၍ သင်သည် အခြားဝန်ဆောင်မှုများနှင့် မျှဝေထားသော ခလုတ်ကို အသုံးပြုရာတွင် iSCSI မှတစ်ဆင့် ချိတ်ဆက်မှုကို အသုံးပြုပါက၊ သီးခြား VLAN တစ်ခုအတွင်း iSCSI အသွားအလာကို ခွဲထုတ်ရန် လိုအပ်ပါသည်။ Jumbo Frames (MTU = 9000) ကို ကွန်ရက်ပေါ်ရှိ ပက်ကတ်များ၏ အရွယ်အစားကို တိုးမြင့်စေပြီး ပို့လွှတ်မှုအတွင်း သတင်းအချက်အလက် ပမာဏကို လျှော့ချရန်လည်း ၎င်းကို အကြံပြုထားသည်။ သို့သော်၊ မှန်ကန်သောလည်ပတ်မှုအတွက်၊ "initiator-switch-target" ကွင်းဆက်တစ်လျှောက်ရှိ ကွန်ရက်အစိတ်အပိုင်းအားလုံးရှိ MTU ကန့်သတ်ဘောင်ကို ပြောင်းလဲရန် လိုအပ်ကြောင်း သတိရသင့်သည်။
Flash အခင်းအကျင်းအားလုံးကို စနစ်ထည့်သွင်းခြင်း။
အခင်းအကျင်းကို ဖွဲ့စည်းပြီးသော အဖွဲ့များဖြင့် ဝယ်ယူသူများထံ ပေးပို့သည်။
အဆင်ပြေစေရန်အတွက်၊ ပေးထားသော အရွယ်အစား၏ အမြောက်အမြားကို တစ်ပြိုင်နက် အစုလိုက် ဖန်တီးခြင်းအတွက် လုပ်ဆောင်နိုင်စွမ်း ရှိပါသည်။ ပုံမှန်အားဖြင့်၊ သေးငယ်သော volumes များကို ဖန်တီးထားသောကြောင့် ရရှိနိုင်သောသိုလှောင်မှုနေရာ (Space Reclamation အတွက် ပံ့ပိုးမှုအပါအဝင်) ကို ပိုမိုထိရောက်စွာ အသုံးပြုနိုင်ရန် ခွင့်ပြုပေးပါသည်။ စွမ်းဆောင်ရည်အရ၊ "ပါးလွှာ" နှင့် "အထူ" အတွဲများအကြား ကွာခြားချက်မှာ 1% ထက်မပိုပါ။ သို့ရာတွင်၊ သင်သည် ခင်းကျင်းတစ်ခုမှ "ဖျော်ရည်အားလုံးကို ညှစ်ထုတ်လိုပါက" မည်သည့် "ပါးလွှာ" ထုထည်ကို "အထူ" အဖြစ်သို့ အမြဲပြောင်းလဲနိုင်သည်။ သို့သော် ထိုသို့သော လုပ်ဆောင်ချက်သည် နောက်ပြန်လှည့်၍မရကြောင်း သတိရသင့်သည်။
ထို့နောက်၊ ဖန်တီးထားသော volumes များကို "ထုတ်ဝေ" ရန်ကျန်ရှိနေပြီး ACLs (iSCSI နှင့် WWPN အတွက် FC အတွက် IP လိပ်စာများ) နှင့် array ports များဖြင့် ရုပ်ပိုင်းဆိုင်ရာ ပိုင်းခြားခြင်းများကို အသုံးပြု၍ host များမှ ၎င်းတို့ထံ ဝင်ရောက်ခွင့်ကို သတ်မှတ်ပေးမည်ဖြစ်သည်။ iSCSI မော်ဒယ်များအတွက် ၎င်းကို Target ဖန်တီးခြင်းဖြင့် လုပ်ဆောင်သည်။
FC မော်ဒယ်များအတွက်၊ array ၏ port တစ်ခုစီအတွက် LUN ဖန်တီးခြင်းဖြင့် ထုတ်ဝေခြင်းကို ဖြစ်ပေါ်ပါသည်။
စနစ်ထည့်သွင်းမှု လုပ်ငန်းစဉ်ကို အရှိန်မြှင့်ရန်၊ host များကို အုပ်စုများအဖြစ် ပေါင်းစပ်နိုင်သည်။ ထို့အပြင်၊ အကယ်၍ အိမ်ရှင်သည် multiport FC HBA ကိုအသုံးပြုပါက (လက်တွေ့တွင်မကြာခဏဆိုသလိုဖြစ်တတ်သည်)၊ ထို့နောက်စနစ်မှထို HBA ၏ port များသည် တစ်ခုနှင့်တစ်ခုကွဲပြားသော WWPNs များကိုကျေးဇူးတင်သည့်တစ်ခုတည်းသော host မှပိုင်ဆိုင်ကြောင်းအလိုအလျောက်ဆုံးဖြတ်သည်။ Interface နှစ်ခုစလုံးအတွက် Target/LUN ၏ Batch ဖန်တီးမှုကိုလည်း ပံ့ပိုးထားသည်။
iSCSI အင်တာဖေ့စ်ကိုအသုံးပြုသည့်အခါ အရေးကြီးသောမှတ်ချက်တစ်ခုမှာ စွမ်းဆောင်ရည်တိုးမြင့်ရန်အတွက် အတွဲများအတွက် ပစ်မှတ်အများအပြားကို တစ်ပြိုင်နက်ဖန်တီးရန်ဖြစ်သည်၊ အဘယ်ကြောင့်ဆိုသော် ပစ်မှတ်ပေါ်ရှိ တန်းစီခြင်းကို ပြောင်းလဲ၍မရသည့်အပြင် ထိထိရောက်ရောက် တစ်ဆို့သွားမည်ဖြစ်သည်။
ESXi Hosts များကို ပြင်ဆင်ခြင်း
ESXi လက်ခံဆောင်ရွက်ပေးသည့်ဘက်တွင်၊ လုံးဝမျှော်လင့်ထားသည့် အခြေအနေတစ်ခုအရ အခြေခံဖွဲ့စည်းမှုပုံစံကို လုပ်ဆောင်သည်။ iSCSI ချိတ်ဆက်မှုအတွက် လုပ်ထုံးလုပ်နည်း-
- ဆော့ဖ်ဝဲလ် iSCSI Adapter ကိုထည့်ပါ (၎င်းကိုထည့်သွင်းပြီးပါက၊ သို့မဟုတ် အကယ်၍ သင်သည် Hardware iSCSI Adapter ကိုအသုံးပြုနေပါက မလိုအပ်ပါ။
- iSCSI အသွားအလာများဖြတ်သန်းမည့် vSwitch ကိုဖန်တီးခြင်းနှင့် ၎င်းတွင် ရုပ်ပိုင်းဆိုင်ရာ uplink နှင့် VMkernal ကိုထည့်ခြင်း၊
- Dynamic Discovery တွင် array လိပ်စာများကို ထည့်ခြင်း၊
- Datastore ဖန်တီးခြင်း။
အရေးကြီးသောမှတ်ချက်အချို့
- ယေဘူယျအခြေအနေတွင်၊ သင်သည် ရှိပြီးသား vSwitch ကိုသုံးနိုင်သော်လည်း သီးခြား vSwitch တွင်၊ host ဆက်တင်များကို စီမံခန့်ခွဲခြင်းသည် များစွာလွယ်ကူမည်ဖြစ်သည်။
- စွမ်းဆောင်ရည်ပြဿနာများကိုရှောင်ရှားရန် စီမံခန့်ခွဲမှုနှင့် iSCSI အသွားအလာများကို သီးခြားရုပ်ပိုင်းဆိုင်ရာလင့်များနှင့်/သို့မဟုတ် VLAN များပေါ်တွင် သီးခြားခွဲထားရန် လိုအပ်ပါသည်။
- VMkernal ၏ IP လိပ်စာများနှင့် Flash အခင်းအကျင်းအားလုံး၏ သက်ဆိုင်ရာ ports များသည် စွမ်းဆောင်ရည်ပြဿနာများကြောင့် ထပ်မံ၍ တူညီသော subnet အတွင်းဖြစ်ရပါမည်။
- VMware စည်းမျဉ်းများနှင့်အညီ အမှားအယွင်းခံနိုင်ရည်ရှိစေရန် vSwitch တွင် အနည်းဆုံး ရုပ်ပိုင်းဆိုင်ရာ လင့်ခ်နှစ်ခုရှိရပါမည်။
- Jumbo Frames ကိုအသုံးပြုပါက၊ သင်သည် vSwitch နှင့် VMkernal နှစ်ခုလုံး၏ MTU ကိုပြောင်းလဲရန်လိုအပ်သည်။
- iSCSI အသွားအလာနှင့်အလုပ်လုပ်ရန်အသုံးပြုမည့်ရုပ်ပိုင်းဆိုင်ရာအဒက်တာများအတွက် VMware အကြံပြုချက်များအရ Teaming နှင့် Failover ကို configure ပြုလုပ်ရန် လိုအပ်ကြောင်း သတိပေးရန် အသုံးဝင်မည်ဖြစ်ပါသည်။ အထူးသဖြင့်၊ VMkernal တစ်ခုစီသည် uplink တစ်ခုတည်းဖြင့်အလုပ်လုပ်ရမည်၊ ဒုတိယ uplink ကိုအသုံးမပြုသောမုဒ်သို့ပြောင်းရပါမည်။ အမှားခံနိုင်ရည်ရှိရန်အတွက် သင်သည် VMkernals နှစ်ခုကို ပေါင်းထည့်ရန် လိုအပ်ပြီး တစ်ခုချင်းစီသည် ၎င်း၏ကိုယ်ပိုင် uplink မှတဆင့် လုပ်ဆောင်မည်ဖြစ်သည်။
VMkernel Adapter (vmk#)
Physical Network Adapter (vmnic#)
vmk1 (Storage01)
Active Adapters များ
vmnic2
အသုံးမပြုသော အဒပ်တာများ
vmnic3
vmk2 (Storage02)
Active Adapters များ
vmnic3
အသုံးမပြုသော အဒပ်တာများ
vmnic2
Fiber Channel မှတစ်ဆင့် ချိတ်ဆက်ရန် ပဏာမအဆင့်များ မလိုအပ်ပါ။ သင်ချက်ချင်း Datastore ကိုဖန်တီးနိုင်သည်။
Datastore ကိုဖန်တီးပြီးနောက်၊ Target/LUN သို့သွားရာလမ်းကြောင်းများအတွက် Round Robin မူဝါဒကို အထိရောက်ဆုံးအဖြစ်အသုံးပြုကြောင်း သေချာစေရန်လိုအပ်ပါသည်။
မူရင်းအားဖြင့်၊ VMware ဆက်တင်များသည် အစီအစဉ်အရ ဤမူဝါဒကို အသုံးပြုရန်အတွက် ပံ့ပိုးပေးသည်- ပထမလမ်းကြောင်းမှ တောင်းဆိုချက် 1000၊ ဒုတိယလမ်းကြောင်းမှ နောက်ထပ် တောင်းဆိုချက် 1000 စသည်တို့။ host နှင့် controller array နှစ်ခုကြားတွင် ထိုကဲ့သို့သော အပြန်အလှန်တုံ့ပြန်မှုသည် ဟန်ချက်မညီပါ။ ထို့ကြောင့်၊ Esxcli/PowerCLI မှတစ်ဆင့် Round Robin မူဝါဒ = 1 ကန့်သတ်ဘောင်ကို သတ်မှတ်ရန် ကျွန်ုပ်တို့အကြံပြုပါသည်။
parameters တွေကို
Esxcli အတွက်
- ရနိုင်သော LUN များစာရင်း
esxcli သိုလှောင်မှု nmp စက်ပစ္စည်းစာရင်း
- စက်ပစ္စည်းအမည်ကို ကူးယူပါ။
- Round Robin Policy ကိုပြောင်းပါ။
esxcli သိုလှောင်မှု nmp psp roundrobin deviceconfig set —type=iops —iops=1 —device=“Device_ID”
ခေတ်မီသော အပလီကေးရှင်းအများစုသည် bandwidth အသုံးချမှုကို အမြင့်ဆုံးနှင့် CPU load လျှော့ချရန်အတွက် ကြီးမားသော data packet များကို လဲလှယ်ရန် ဒီဇိုင်းထုတ်ထားပါသည်။ ထို့ကြောင့်၊ ESXi သည် 32767KB အထိ အတုံးအခဲများရှိသည့် သိုလှောင်ကိရိယာသို့ I/O တောင်းဆိုမှုများကို ပြဿနာများ ချမှတ်ထားသည်။ သို့ရာတွင်၊ အချို့သောအခြေအနေများအတွက်၊ သေးငယ်သောအပိုင်းများကို လဲလှယ်ခြင်းသည် ပို၍အကျိုးဖြစ်ထွန်းလိမ့်မည်။ AccelStor အခင်းအကျင်းများအတွက်၊ ဤအရာများသည် အောက်ပါအခြေအနေများဖြစ်သည်-
- စက်သည် Legacy BIOS အစား UEFI ကို အသုံးပြုသည်။
- vSphere Replication ကိုအသုံးပြုသည်။
ထိုသို့သောအခြေအနေများအတွက် Disk.DiskMaxIOSize ဘောင်တန်ဖိုးကို 4096 သို့ပြောင်းရန် အကြံပြုထားသည်။
iSCSI ချိတ်ဆက်မှုများအတွက်၊ ချိတ်ဆက်မှုတည်ငြိမ်မှုကို မြှင့်တင်ရန်နှင့် ထပ်ဆင့်ပို့ထားသော ပက်ကတ်များကို အတည်ပြုရန်အတွက် DelayedAck နှောင့်နှေးမှုကို ပိတ်ရန် လော့ဂ်အင်ဝင်ချိန်ကန့်သတ်မှုဘောင်ကို 30 (ပုံသေ 5) သို့ ပြောင်းရန် အကြံပြုထားသည်။ ရွေးချယ်စရာနှစ်ခုလုံးသည် vSphere Client တွင်ရှိသည်- Host → Configure → Storage → Storage Adapters → iSCSI adapter အတွက် အဆင့်မြင့် ရွေးချယ်စရာများ
သိမ်မွေ့သောအချက်မှာ datastore အတွက်အသုံးပြုသည့် volumes အရေအတွက်ဖြစ်သည်။ စီမံခန့်ခွဲရလွယ်ကူရန်၊ array တစ်ခုလုံးအတွက် ထုထည်ကြီးတစ်ခု ဖန်တီးလိုစိတ်ရှိသည်မှာ ရှင်းပါသည်။ သို့သော်၊ များစွာသော volumes များရှိနေခြင်းနှင့် လျော်ညီစွာ datastore သည် အလုံးစုံစွမ်းဆောင်မှုအပေါ် အကျိုးသက်ရောက်မှုရှိသည် (အောက်ပါ စီတန်းများအကြောင်းပိုမို)။ ထို့ကြောင့်၊ ကျွန်ုပ်တို့သည် အနည်းဆုံး volumes နှစ်ခု ဖန်တီးရန် အကြံပြုပါသည်။
မကြာသေးမီအထိ၊ VMware သည် ဖြစ်နိုင်ချေအမြင့်ဆုံးစွမ်းဆောင်ရည်ကိုရရှိရန်အတွက် datastore တစ်ခုတွင် virtual machines အရေအတွက်ကို ကန့်သတ်ရန် အကြံပြုထားသည်။ သို့သော်လည်း ယခု အထူးသဖြင့် VDI ပျံ့နှံ့မှုနှင့်အတူ၊ ဤပြဿနာသည် အလွန်ပြင်းထန်တော့မည်မဟုတ်ပါ။ သို့သော် ၎င်းသည် ကွဲပြားသောဒေတာစတိုးများတစ်လျှောက် ပြင်းထန်သော IO လိုအပ်သည့် virtual machines များကိုဖြန့်ဝေရန် ကာလကြာရှည်စည်းမျဉ်းကို ပယ်ဖျက်မည်မဟုတ်ပါ။ အသံအတိုးအကျယ်အတွက် အကောင်းဆုံး virtual machines အရေအတွက်ကို ဆုံးဖြတ်ရန်၊ ပိုမိုကောင်းမွန်သောအရာမရှိပါ။
အတုအယောင် စက်များကို စနစ်ထည့်သွင်းခြင်း။
virtual machines များကို စနစ်ထည့်သွင်းရာတွင် အထူးလိုအပ်ချက်များ မရှိပါ သို့မဟုတ် ၎င်းတို့သည် သာမန်ထက်သာလွန်ပါသည်။
- ဖြစ်နိုင်ချေအမြင့်ဆုံး VM ဗားရှင်းကို အသုံးပြုခြင်း (လိုက်ဖက်ညီမှု)
- ဥပမာအားဖြင့်၊ VDI တွင် virtual machines များကို ထူထပ်စွာချထားသည့်အခါ RAM အရွယ်အစားကို သတ်မှတ်ရန် ပိုမိုသတိထားရပါသည် (မူရင်းအားဖြင့်၊ စတင်ချိန်တွင် RAM နှင့် ကိုက်ညီသော အရွယ်အစားရှိ စာမျက်နှာဖိုင်ကို ဖန်တီးထားပြီး၊ အသုံးဝင်သော စွမ်းရည်ကို စားသုံးပြီး အကျိုးသက်ရောက်မှုရှိသည်။ နောက်ဆုံးစွမ်းဆောင်ရည်)
- IO ၏ သတ်မှတ်ချက်များအရ အကျိုးရှိဆုံး အဒက်တာဗားရှင်းများကို အသုံးပြုပါ- ကွန်ရက်အမျိုးအစား VMXNET 3 နှင့် SCSI အမျိုးအစား PVSCSI
- အမြင့်ဆုံးစွမ်းဆောင်ရည်အတွက် Thick Provision Eager Zeroed disk အမျိုးအစားကို အသုံးပြု၍ သိုလှောင်မှုနေရာ အများဆုံးအသုံးပြုမှုအတွက် ပါးလွှာသောပြင်ဆင်ပေးခြင်း
- ဖြစ်နိုင်ပါက Virtual Disk Limit ကို အသုံးပြု၍ I/O အရေးပါသော စက်မဟုတ်သော စက်များ၏ လည်ပတ်မှုကို ကန့်သတ်ပါ။
- VMware Tools ကို ထည့်သွင်းရန် သေချာပါစေ။
တန်းစီခြင်းဆိုင်ရာ မှတ်စုများ
Queue (သို့မဟုတ် Outstanding I/Os) သည် သီးခြားစက်ပစ္စည်း/အပလီကေးရှင်းတစ်ခုအတွက် သတ်မှတ်အချိန်အတွင်း လုပ်ဆောင်ရန်စောင့်ဆိုင်းနေသည့် အဝင်/အထွက်တောင်းဆိုမှု (SCSI ညွှန်ကြားချက်များ) အရေအတွက်ဖြစ်သည်။ တန်းစီရေလျှံမှုတွင်၊ QFULL အမှားများကို ထုတ်ပြန်ပြီး နောက်ဆုံးတွင် latency ဘောင်ကို တိုးလာစေသည်။ သီအိုရီအရ disk (spindle) သိုလှောင်မှုစနစ်များကိုအသုံးပြုသောအခါ၊ သီအိုရီအရ၊ တန်းစီမြင့်လေ၊ ၎င်းတို့၏စွမ်းဆောင်ရည်မြင့်မားလေဖြစ်သည်။ သို့သော်၊ QFULL သို့ လည်ပတ်ရန် လွယ်ကူသောကြောင့် သင်သည် ၎င်းကို အလွဲသုံးစားမလုပ်သင့်ပါ။ Flash စနစ်များအားလုံးတွင်၊ တစ်ဖက်တွင်၊ အရာအားလုံးသည် အတန်ငယ်ပိုမိုရိုးရှင်းသည်- ပြီးနောက်၊ array တွင် ပြင်းအားနိမ့်သောအမိန့်စာများရှိသည့် latencies များရှိပြီး အများစုမှာ စီတန်းအရွယ်အစားကို သီးခြားထိန်းညှိရန်မလိုအပ်ပါ။ သို့သော် အခြားတစ်ဖက်တွင်၊ အချို့သောအသုံးပြုမှုအခြေအနေများတွင် (တိကျသော virtual machines အတွက် IO လိုအပ်ချက်များ၊ အမြင့်ဆုံးစွမ်းဆောင်ရည်အတွက် စမ်းသပ်မှုများ၊ စသည်ဖြင့်)၊ တန်းစီခြင်း၏ဘောင်များကို မပြောင်းလဲပါက၊ အနည်းဆုံး မည်သည့်အညွှန်းများကို နားလည်ရန် လိုအပ်ပါသည်။ အောင်မြင်နိုင်တယ်၊ အဓိကအရာက ဘယ်လိုနည်းလမ်းတွေနဲ့လဲ။
AccelStor All Flash array တွင် volumes သို့မဟုတ် I/O port များနှင့် ပတ်သက်သော ကန့်သတ်ချက်များ မရှိပါ။ လိုအပ်ပါက၊ Volume တစ်ခုမှပင် array ၏အရင်းအမြစ်အားလုံးကို လက်ခံရရှိနိုင်ပါသည်။ တန်းစီခြင်းတွင် တစ်ခုတည်းသောကန့်သတ်ချက်မှာ iSCSI ပစ်မှတ်များအတွက်ဖြစ်သည်။ ဤအကြောင်းကြောင့် ပမာဏတစ်ခုစီအတွက် ပစ်မှတ်များစွာ (အဓိကအားဖြင့် 8 ခုအထိ) ကို ဖန်တီးရန် လိုအပ်သောကြောင့် ဤကန့်သတ်ချက်ကို ကျော်လွှားရန် အထက်တွင် ဖော်ပြထားပါသည်။ AccelStor array များသည် အလွန်အကျိုးရှိသော ဖြေရှင်းနည်းများဖြစ်ကြောင်းလည်း ထပ်ပြောကြပါစို့။ ထို့ကြောင့်၊ သင်သည် အမြင့်ဆုံးမြန်နှုန်းရရှိရန် စနစ်၏ interface ports အားလုံးကို အသုံးပြုသင့်သည်။
ESXi ဘက်တွင်မူ အခြေအနေသည် လုံးဝကွဲပြားသည်။ အိမ်ရှင်ကိုယ်တိုင်က ပါဝင်သူအားလုံးအတွက် အရင်းအမြစ်များထံ တန်းတူညီမျှဝင်ရောက်ခွင့်ရရှိရေး အလေ့အကျင့်ကို ကျင့်သုံးပါသည်။ ထို့ကြောင့်၊ ဧည့်သည် OS နှင့် HBA အတွက် သီးခြား IO တန်းစီများရှိသည်။ ဧည့်သည် OS အတွက် တန်းစီမှုများကို တန်းစီခြင်းမှ virtual SCSI adapter နှင့် virtual disk သို့ ပေါင်းစပ်ထားသည်-
HBA သို့ တန်းစီခြင်းသည် သီးခြားအမျိုးအစား/ရောင်းချသူအပေါ် မူတည်သည်-
virtual machine ၏ နောက်ဆုံးစွမ်းဆောင်ရည်ကို လက်ခံသူအစိတ်အပိုင်းများကြားတွင် အနိမ့်ဆုံး Queue Depth ကန့်သတ်ချက်ဖြင့် ဆုံးဖြတ်မည်ဖြစ်သည်။
ဤတန်ဖိုးများကြောင့် ကျွန်ုပ်တို့သည် သီးခြားဖွဲ့စည်းမှုတစ်ခုတွင် ရရှိနိုင်သည့် စွမ်းဆောင်ရည်ညွှန်းကိန်းများကို အကဲဖြတ်နိုင်ပါသည်။ ဥပမာအားဖြင့်၊ latency 0.5ms ရှိသော virtual machine (block binding မပါဘဲ) ၏သီအိုရီပိုင်းဆိုင်ရာစွမ်းဆောင်ရည်ကို ကျွန်ုပ်တို့ သိလိုပါသည်။ ထို့နောက် ၎င်း၏ IOPS = (1,000/latency) * ထူးထူးခြားခြား I/Os (Queue Depth limit)
ဥပမာ
ဥပမာအား 1
- FC Emulex HBA Adapter
- ဒေတာဆိုင်တစ်ခုလျှင် VM တစ်ခု
- VMware Paravirtual SCSI Adapter
ဤနေရာတွင် Queue Depth ကန့်သတ်ချက်ကို Emulex HBA မှ ဆုံးဖြတ်သည်။ ထို့ကြောင့် IOPS = (1000/0.5)*32 = 64K
ဥပမာအား 2
- VMware iSCSI Software Adapter
- ဒေတာဆိုင်တစ်ခုလျှင် VM တစ်ခု
- VMware Paravirtual SCSI Adapter
ဤနေရာတွင် Queue Depth ကန့်သတ်ချက်ကို Paravirtual SCSI Adapter မှ ဆုံးဖြတ်ထားပြီးဖြစ်သည်။ ထို့ကြောင့် IOPS = (1000/0.5)*64 = 128K
Flash AccelStor အခင်းအကျင်းအားလုံး၏ ထိပ်တန်းမော်ဒယ်များ (ဥပမာ၊
ရလဒ်အနေဖြင့်၊ virtual data center တစ်ခု၏ ဖော်ပြထားသော အစိတ်အပိုင်းများအားလုံးကို မှန်ကန်သောဖွဲ့စည်းမှုဖြင့်၊ စွမ်းဆောင်ရည်သတ်မှတ်ချက်များတွင် အလွန်အထင်ကြီးစရာကောင်းသောရလဒ်များကို သင်ရရှိနိုင်ပါသည်။
4K ကျပန်း၊ 70% ဖတ်/30% ရေးပါ။
တကယ်တော့၊ လက်တွေ့ကမ္ဘာဟာ ရိုးရှင်းတဲ့ ပုံသေနည်းနဲ့ ဖော်ပြနိုင်တာထက် အများကြီး ပိုရှုပ်ထွေးပါတယ်။ host တစ်ခုသည် မတူညီသော configurations နှင့် IO လိုအပ်ချက်များဖြင့် virtual machines အများအပြားကို အမြဲလက်ခံပါသည်။ နှင့် I/O လုပ်ဆောင်ချက်ကို လက်ခံဆောင်ရွက်ပေးသည့် ပရိုဆက်ဆာက ကိုင်တွယ်ဆောင်ရွက်ပြီး ပါဝါသည် အကန့်အသတ်မရှိပေ။ ဒါကြောင့် တူညီတဲ့ အလားအလာကို အပြည့်အဝ သော့ဖွင့်ပါ။
source: www.habr.com