100GbE- ဇိမ်ခံပစ္စည်း သို့မဟုတ် မရှိမဖြစ်လိုအပ်မှု။

IEEE P802.3ba၊ 100 Gigabit Ethernet (100GbE) ထက်ပိုသော ဒေတာပို့လွှတ်ခြင်းအတွက် စံနှုန်းတစ်ခုဖြစ်သည့် 2007 နှင့် 2010 [3] ကို တီထွင်ခဲ့သော်လည်း 2018 တွင်သာ ကျယ်ကျယ်ပြန့်ပြန့် ဖြစ်လာခဲ့သည်။ 5 မှာ ဘာကြောင့် စောစောမဟုတ်တာလဲ။ အဘယ်ကြောင့်ချက်ချင်း မောင်းထုတ်ရသနည်း။ ဒီအတွက် အကြောင်းပြချက် အနည်းဆုံး ငါးခုရှိပါတယ်...

100GbE- ဇိမ်ခံပစ္စည်း သို့မဟုတ် မရှိမဖြစ်လိုအပ်မှု။

IEEE P802.3ba ကို ဒေတာစင်တာများ၏ လိုအပ်ချက်များနှင့် အင်တာနက် အသွားအလာ ဖလှယ်သည့်နေရာများ (အမှီအခိုကင်းသော အော်ပရေတာများအကြား) လိုအပ်ချက်များနှင့် ဖြည့်ဆည်းရန် အဓိက တီထွင်ထားပါသည်။ ဗီဒီယိုအကြောင်းအရာများစွာပါရှိသော ပေါ်တယ်များကဲ့သို့သော အရင်းအမြစ်-များသော ဝဘ်ဝန်ဆောင်မှုများ၏ အနှောက်အယှက်ကင်းစွာ လည်ပတ်မှုကို သေချာစေရန်၊ နှင့် စွမ်းဆောင်ရည်မြင့်မားသော ကွန်ပျူတာများအတွက်။ [3] သာမန်အင်တာနက်အသုံးပြုသူများသည် bandwidth လိုအပ်ချက်များကို ပြောင်းလဲရန်အတွက်လည်း ပံ့ပိုးကူညီနေကြသည်- လူအများအပြားသည် ဒစ်ဂျစ်တယ်ကင်မရာများရှိပြီး ၎င်းတို့ဖမ်းယူထားသော အကြောင်းအရာများကို အင်တာနက်ပေါ်တွင် တိုက်ရိုက်ထုတ်လွှင့်လိုကြသည်။ အဲဒါ။ အင်တာနက်ပေါ်တွင် ပျံ့နှံ့နေသော အကြောင်းအရာ ပမာဏသည် အချိန်နှင့်အမျှ ပိုကြီးလာသည်။ ပရော်ဖက်ရှင်နယ်နှင့် စားသုံးသူအဆင့်တွင် နှစ်မျိုးလုံးရှိသည်။ ဤကိစ္စရပ်အားလုံးတွင်၊ ဒိုမိန်းတစ်ခုမှ အခြားတစ်ခုသို့ ဒေတာလွှဲပြောင်းသောအခါတွင်၊ သော့ကွန်ယက်ဆုံမှတ်များ၏ စုစုပေါင်းဖြတ်သန်းမှုသည် 10GbE အပေါက်များ၏ စွမ်းဆောင်ရည်ကို ကျော်လွန်သွားပါသည်။ [1] ဤသည်မှာ 100GbE စံနှုန်းအသစ်တစ်ခု ပေါ်ပေါက်လာရခြင်း၏ အကြောင်းရင်းဖြစ်သည်။

ကြီးမားသောဒေတာစင်တာများနှင့် cloud ဝန်ဆောင်မှုပေးသူများသည် 100GbE ကိုတက်ကြွစွာအသုံးပြုနေပြီဖြစ်ပြီး နှစ်အနည်းငယ်အတွင်း 200GbE နှင့် 400GbE သို့ ဖြည်းဖြည်းချင်းပြောင်းရန်စီစဉ်ထားသည်။ တစ်ချိန်တည်းမှာပင် ၎င်းတို့သည် terabit ကျော်လွန်သော အရှိန်ကို ကြည့်နေပြီဖြစ်သည်။ [6] ယမန်နှစ်တွင်သာ 100GbE သို့ ပြောင်းရွှေ့လာသော ပေးသွင်းသူကြီးအချို့ရှိသော်လည်း (ဥပမာ၊ Microsoft Azure)။ ဘဏ္ဍာရေးဝန်ဆောင်မှုများ၊ အစိုးရပလက်ဖောင်းများ၊ ရေနံနှင့်သဘာဝဓာတ်ငွေ့ပလပ်ဖောင်းများနှင့် အသုံးအဆောင်များအတွက် စွမ်းဆောင်ရည်မြင့်မားသော ကွန်ပျူတာအသုံးပြုသည့် ဒေတာစင်တာများသည်လည်း 100GbE သို့ ပြောင်းရွှေ့လာကြသည်။ [5]

လုပ်ငန်းဒေတာစင်တာများတွင် bandwidth လိုအပ်ချက်သည် အနည်းငယ်နိမ့်သည်- မကြာသေးမီကမှသာလျှင် 10GbE သည် ဤနေရာတွင် ဇိမ်ခံမည့်အစား မရှိမဖြစ်လိုအပ်လာသည်။ သို့သော်၊ လမ်းကြောင်းအသုံးပြုမှုနှုန်းသည် ပို၍ပို၍ လျင်မြန်စွာ ကြီးထွားလာသည်နှင့်အမျှ 10GbE သည် လုပ်ငန်းဒေတာစင်တာများတွင် အနည်းဆုံး 10 သို့မဟုတ် 5 နှစ်အထိ အသက်ရှင်နေမည်မှာ သေချာပါသည်။ ယင်းအစား၊ 25GbE သို့ လျင်မြန်စွာ ရွေ့လျားပြီး 100GbE သို့ပင် ပိုမိုမြန်ဆန်စွာ ရွေ့လျားသည်ကို ကျွန်ုပ်တို့ မြင်တွေ့ရပါမည်။ [6] အဘယ်ကြောင့်ဆိုသော် Intel မှ လေ့လာသုံးသပ်သူများ သတိပြုမိသည့်အတိုင်း Data Center အတွင်းရှိ သွားလာမှု ပြင်းထန်မှုသည် နှစ်စဉ် 25% တိုးလာသောကြောင့် ဖြစ်သည်။ [5]

Dell နှင့် Hewlett Packard တို့မှ လေ့လာသုံးသပ်သူများသည် 4 သည် ဒေတာစင်တာများအတွက် 2018GbE ၏နှစ်ဖြစ်ကြောင်း [100] ပြောကြားခဲ့သည်။ 2018 ခုနှစ် သြဂုတ်လတွင် 100GbE စက်ပစ္စည်းများ ပေးပို့မှုသည် 2017 တစ်နှစ်လုံးအတွက် ပို့ဆောင်မှုထက် နှစ်ဆပိုများခဲ့သည်။ ဒေတာစင်တာများသည် 40GbE မှ 2022GbE မှ ဝေးရာသို့ စတင်ရွေ့လျားလာသည်နှင့်အမျှ တင်ပို့မှုနှုန်းသည် ဆက်လက်အရှိန်မြှင့်လာသည်။ 19,4 ခုနှစ်တွင် 100GbE ဆိပ်ကမ်းများ 2017 သန်းကို နှစ်စဉ် တင်ပို့နိုင်မည်ဟု ခန့်မှန်းထားသည် (4,6 ခုနှစ်တွင် နှိုင်းယှဉ်ကြည့်လျှင် ဤကိန်းဂဏန်းသည် 4 သန်းဖြစ်သည်)။ [2017] ကုန်ကျစရိတ်များအတွက် 100 ခုနှစ်တွင် $7 ဘီလီယံကို 2020GbE ဆိပ်ကမ်းများတွင် သုံးစွဲခဲ့ပြီး 20 ခုနှစ်တွင် ခန့်မှန်းချက်များအရ အမေရိကန်ဒေါ်လာ 1 ဘီလီယံခန့် သုံးစွဲမည် (ပုံ 1 ကိုကြည့်ပါ)။ [XNUMX]

100GbE- ဇိမ်ခံပစ္စည်း သို့မဟုတ် မရှိမဖြစ်လိုအပ်မှု။
ပုံ 1. ကွန်ရက်စက်ပစ္စည်းများအတွက် လိုအပ်ချက်များ၏ ကိန်းဂဏန်းများနှင့် ခန့်မှန်းချက်များ

အခု ဘာကြောင့်လဲ? 100GbE သည် အတိအကျနည်းပညာအသစ်မဟုတ်ပါ အဘယ်ကြောင့်ဆိုသော်၎င်း၏ပတ်ဝန်းကျင်တွင် ယခုလောက်ဖောင်းပွနေခြင်းဖြစ်သည်။

1) ဒီနည်းပညာက ရင့်ကျက်ပြီး စျေးသက်သာတာကြောင့်ပါ။ 2018 ခုနှစ်တွင် ဒေတာစင်တာရှိ 100-Gigabit အပေါက်များပါသည့် ပလပ်ဖောင်းများကို အသုံးပြုသောအခါတွင် 10-Gigabit ပလပ်ဖောင်းအများအပြားကို "stacking" ခြင်းထက် ကုန်ကျစရိတ်သက်သာလာသည်။ ဥပမာ- Ciena 5170 (ပုံ 2 ကိုကြည့်ပါ) သည် 800GbE (4x100GbE၊ 40x10GbE) ၏ စုစုပေါင်းဖြတ်သန်းမှုကို ပံ့ပိုးပေးသည့် ကျစ်လစ်သိပ်သည်းသော ပလပ်ဖောင်းတစ်ခုဖြစ်သည်။ လိုအပ်သော ပမာဏကို ပံ့ပိုးပေးရန် 10-Gigabit port အများအပြား လိုအပ်ပါက၊ အပိုဆောင်း ဟာ့ဒ်ဝဲ၊ အပိုနေရာ၊ ပါဝါသုံးစွဲမှု၊ ဆက်လက်ထိန်းသိမ်းမှု၊ အပိုအပိုပစ္စည်းများနှင့် အပိုအအေးပေးစနစ်များ၏ ကုန်ကျစရိတ်များသည် သပ်ရပ်လှပသော ပမာဏအထိ ပေါင်းထည့်ပါသည်။ [1] ဥပမာအားဖြင့်၊ Hewlett Packard ကျွမ်းကျင်သူများသည် 10GbE မှ 100GbE သို့ ပြောင်းရွှေ့ခြင်း၏ အလားအလာရှိသော အကျိုးကျေးဇူးများကို ခွဲခြမ်းစိတ်ဖြာခြင်းဖြင့် အောက်ပါကိန်းဂဏန်းများဆီသို့ ရောက်လာသည်- ပိုမိုမြင့်မားသော စွမ်းဆောင်ရည် (56%)၊ စုစုပေါင်းကုန်ကျစရိတ် (27%)၊ ပါဝါသုံးစွဲမှု နည်းပါးခြင်း (31%)၊ ရိုးရှင်းသောကေဘယ်လ်ချိတ်ဆက်မှုများ (38%)။ [5]

100GbE- ဇိမ်ခံပစ္စည်း သို့မဟုတ် မရှိမဖြစ်လိုအပ်မှု။
ပုံ 2. Ciena 5170- ဥပမာ 100 Gigabit ဆိပ်ကမ်းများပါရှိသော ပလပ်ဖောင်း

2) Juniper နှင့် Cisco တို့သည် 100GbE ခလုတ်များအတွက် ၎င်းတို့၏ ကိုယ်ပိုင် ASIC များကို ဖန်တီးခဲ့သည်။ [5] 100GbE နည်းပညာသည် အမှန်တကယ်ရင့်ကျက်သည်ဟူသောအချက်ကို နှုတ်ဆိတ်စွာအတည်ပြုချက်ဖြစ်သည်။ အမှန်မှာ ASIC ချစ်ပ်များကို ပထမဦးစွာ ၎င်းတို့အပေါ် အကောင်အထည်ဖော်သည့် ယုတ္တိဗေဒသည် မျှော်မှန်းမရနိုင်သော အနာဂတ်တွင် အပြောင်းအလဲများ မလိုအပ်ဘဲ၊ ဒုတိယမှာ ထပ်တူထပ်မျှ ချစ်ပ်များစွာကို ထုတ်လုပ်သည့်အခါမှသာ စရိတ်သက်သာပါသည်။ Juniper နှင့် Cisco တို့သည် 100GbE ၏ရင့်ကျက်မှုကို ယုံကြည်မှုမရှိဘဲ ဤ ASIC များကို ထုတ်လုပ်မည်မဟုတ်ပါ။

3) အဘယ်ကြောင့်ဆိုသော် Broadcom၊ Cavium နှင့် Mellanox Technologie တို့သည် 100GbE ပံ့ပိုးမှုဖြင့် ပရိုဆက်ဆာများကို စတင်အသုံးပြုနေပြီဖြစ်သောကြောင့်၊ ဤပရိုဆက်ဆာများကို Dell၊ Hewlett Packard၊ Huawei Technologies၊ Lenovo Group စသည်ဖြင့် ထုတ်လုပ်သူများထံမှ ခလုတ်များတွင် အသုံးပြုနေပြီဖြစ်သည်။ [5]

4) အဘယ်ကြောင့်ဆိုသော် ဆာဗာများတွင် တပ်ဆင်ထားသော ဆာဗာများသည် 3-Gigabit အပေါက်နှစ်ခုပါသော နောက်ဆုံးပေါ် Intel ကွန်ရက်အဒက်တာများ (ပုံ 25 ကိုကြည့်ပါ) နှင့် တစ်ခါတစ်ရံတွင် 40-Gigabit ပေါက်နှစ်ခု (XXV710 နှင့် XL710) ဖြင့် ချိတ်ဆက်ထားသော ကွန်ရက်အဒက်တာများကိုပင် ပေါင်းစပ်ထားသောကြောင့်ဖြစ်သည်။ {ပုံ 3. နောက်ဆုံးထွက် Intel NIC များ- XXV710 နှင့် XL710}

5) 100GbE စက်ပစ္စည်းသည် နောက်ပြန်သဟဇာတဖြစ်နေသောကြောင့် ဖြန့်ကျက်မှုကို ရိုးရှင်းလွယ်ကူစေသည်- သင်ဖြတ်သန်းပြီးသားကေဘယ်များကို ပြန်သုံးနိုင်သည် (၎င်းတို့ကို transceiver အသစ်တစ်ခုနှင့် ချိတ်ဆက်လိုက်ပါ)။

ထို့အပြင်၊ 100GbE ရရှိနိုင်မှုသည် “NVMe over Fabrics” ကဲ့သို့သော နည်းပညာအသစ်များအတွက် ကျွန်ုပ်တို့ကို ပြင်ဆင်ပေးသည် (ဥပမာ၊ Samsung Evo Pro 256 GB NVMe PCIe SSD; ပုံ 4 ကိုကြည့်ပါ) [8၊ 10]၊ “Storage Area Network” (SAN ) / “Software Defined Storage” (ပုံ။ 5 ကိုကြည့်ပါ) [7]၊ RDMA [11]၊

100GbE- ဇိမ်ခံပစ္စည်း သို့မဟုတ် မရှိမဖြစ်လိုအပ်မှု။
ပုံ 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE- ဇိမ်ခံပစ္စည်း သို့မဟုတ် မရှိမဖြစ်လိုအပ်မှု။
ပုံ 5. “Storage Area Network” (SAN) / “Software Defined Storage”

နောက်ဆုံးတွင်၊ 100GbE နှင့် ဆက်စပ်သော မြန်နှုန်းမြင့်နည်းပညာများ အသုံးပြုမှုအတွက် လက်တွေ့ကျသော လိုအပ်ချက်၏ ထူးခြားဆန်းပြားသော ဥပမာအနေဖြင့်၊ 6GbE (Spectrum) ကို အခြေခံ၍ တည်ဆောက်ထားသည့် ကိန်းဘရစ်ခ်ျတက္ကသိုလ်၏ သိပ္ပံနည်းကျ cloud ကို ကိုးကားနိုင်ပါသည် SN100 Ethernet ခလုတ်များ) - အခြားအရာများအကြားတွင်၊ 2700/10GbE ကွန်ရက်ကို အလွယ်တကူ overload ပြုလုပ်နိုင်သည့် NexentaEdge SDS ဖြန့်ဝေထားသော disk သိုလှောင်မှု၏ ထိရောက်သောလည်ပတ်မှုကို သေချာစေရန်။ [40] အသုံးချ သိပ္ပံနည်းကျ ပြဿနာ အများအပြားကို ဖြေရှင်းရန် ဤကဲ့သို့သော စွမ်းဆောင်ရည်မြင့် သိပ္ပံနည်းကျ တိမ်တိုက်များကို အသုံးချထားသည်။ ဥပမာအားဖြင့်၊ ဆေးသိပ္ပံပညာရှင်များသည် လူသားဂျီနိုမ်ကို ပုံဖော်ရန် ထိုကဲ့သို့ cloud များကို အသုံးပြုကြပြီး 2GbE ချန်နယ်များကို တက္ကသိုလ်သုတေသနအဖွဲ့များအကြား သတင်းအချက်အလက်လွှဲပြောင်းရန် အသုံးပြုကြသည်။

100GbE- ဇိမ်ခံပစ္စည်း သို့မဟုတ် မရှိမဖြစ်လိုအပ်မှု။
ပုံ 6. Cambridge သိပ္ပံတက္ကသိုလ် cloud ၏ တစ်စိတ်တစ်ပိုင်း

ကျမ်းကိုးစာရင်း

  1. John Hawkins။ 100GbE- အနားသတ်မှ ပိုနီးသည်၊ လက်တွေ့နှင့် ပိုနီးစပ်သည်။ // ၂၀။
  2. Amit Katz 100GbE ခလုတ်များ - သင်သင်္ချာပြီးပြီလား။ // ၂၀။
  3. မာဂရက်နှင်းဆီ။ 100 Gigabit Ethernet (100GbE).
  4. ဒေးဗစ်ချိုင်း။ Dell EMC သည် ဖွင့်ထားသော ခေတ်မီဒေတာစင်တာအတွက် 100 Gigabit Ethernet တွင် နှစ်ဆတိုးလာသည်။ // ၂၀။
  5. Mary Brascombe ဒေတာစင်တာကွန်ရက်များတွင် 100GbE ၏နှစ် // ၂၀။
  6. Jarred Baker Enterprise Data Center တွင် ပိုမိုမြန်ဆန်စွာ ရွေ့လျားခြင်း။ // ၂၀။
  7. တွမ်ကလာ့ခ်။ သိုလှောင်ဧရိယာကွန်ရက်များကို ဒီဇိုင်းဆွဲခြင်း- Fiber Channel နှင့် IP SAN များကို အကောင်အထည်ဖော်ခြင်းအတွက် လက်တွေ့ကျသော အကိုးအကား။ 2003. 572p။
  8. James O'Reilly ။ ကွန်ရက်သိုလှောင်မှု- သင့်ကုမ္ပဏီ၏ဒေတာကို သိမ်းဆည်းရန်အတွက် ကိရိယာများနှင့် နည်းပညာများ // 2017. 280p.
  9. James Sullivan ကျောင်းသားအစုအဖွဲ့ပြိုင်ပွဲ 2017၊ Austin/Texas ပြည်နယ်တက္ကသိုလ်ရှိ Team University of Texas တက္ကသိုလ်- Intel Skylake နှင့် NVIDIA V100 ဗိသုကာများ // Parallel Computing တွင် Tersoff multi-body အလားအလာ၏ vectorization ကို ပြန်လည်ထုတ်လုပ်ခြင်း။ v.79၊ 2018. စစ. ၃၀-၃၅။
  10. Manolis Katevenis Exascale-class စနစ်များ၏ နောက်မျိုးဆက်- ExaNeSt Project // Microprocessors နှင့် Microsystems။ v.61၊ 2018. စစ. ၅၈-၇၁။
  11. Hari Subramoni Ethernet မှ RDMA- ပဏာမလေ့လာမှု // Distributed Computing အတွက် စွမ်းဆောင်ရည်မြင့်မားသော အပြန်အလှန်ချိတ်ဆက်မှုများဆိုင်ရာ အလုပ်ရုံဆွေးနွေးပွဲ၏ လုပ်ငန်းစဉ်များ။ ၂၀၀၉။
  12. Chris Broekema ဆော့ဖ်ဝဲလ် UDP RDMA // အနာဂတ်မျိုးဆက်ကွန်ပြူတာစနစ်များဖြင့် ရေဒီယိုနက္ခတ္တဗေဒတွင် စွမ်းအင်ထိရောက်စွာ ဒေတာလွှဲပြောင်းမှုများ။ v.79၊ 2018. စစ. ၂၁၅-၂၂၄။

PS ။ ဤဆောင်းပါးကို မူလက ထုတ်ဝေခဲ့သည်။ "စစ်စတမ်အားထိန်းသိမ်းစောင့်ရှောက်သူ".

စာရင်းသွင်းအသုံးပြုသူများသာ စစ်တမ်းတွင် ပါဝင်နိုင်ပါသည်။ ဆိုင်းအင်လုပ်ခြင်း, ကျေးဇူးပြု။

ကြီးမားသော ဒေတာစင်တာများသည် အဘယ်ကြောင့် 100GbE သို့ အစုလိုက်အပြုံလိုက် ပြောင်းရွှေ့လာသနည်း။

  • တကယ်တော့ ဘယ်သူမှ ဘယ်ကိုမှ မရွေ့သေးပါဘူး..။

  • ဘာကြောင့်လဲဆိုတော့ ဒီနည်းပညာက ရင့်ကျက်ပြီး စျေးသက်သာလို့ပါပဲ။

  • အဘယ်ကြောင့်ဆိုသော် Juniper နှင့် Cisco တို့သည် 100GbE ခလုတ်များအတွက် ASICs ကို ဖန်တီးခဲ့သည်။

  • Broadcom၊ Cavium နှင့် Mellanox Technologie တို့သည် 100GbE ပံ့ပိုးမှုကို ထည့်သွင်းထားသောကြောင့်ဖြစ်သည်။

  • ဘာဖြစ်လို့လဲဆိုတော့ အခု ဆာဗာတွေမှာ 25- နဲ့ 40-gigabit port တွေရှိလို့ပါ။

  • သင်၏ဗားရှင်း (မှတ်ချက်များတွင်ရေးပါ)

အသုံးပြုသူ 12 ဦး မဲပေးခဲ့သည်။ အသုံးပြုသူ 15 ရှောင်နေခဲ့ပါတယ်။

source: www.habr.com

မှတ်ချက် Add