Rozwiązania HPE do pracy zdalnej

Opowiem wam dzisiaj historię. Historia ewolucji technologii komputerowej i pojawienia się pracy zdalnej od czasów starożytnych po współczesność.

Rozwój IT

Najważniejszą rzeczą, której można się nauczyć z historii IT jest...

Rozwiązania HPE do pracy zdalnej

Nie da się ukryć, że IT rozwija się spiralnie. Te same rozwiązania i koncepcje, które odrzucono kilkadziesiąt lat temu, nabierają nowego znaczenia i zaczynają skutecznie działać w nowych warunkach, z nowymi zadaniami i nowymi możliwościami. Pod tym względem informatyka nie różni się od żadnej innej dziedziny ludzkiej wiedzy i historii Ziemi jako całości.
Rozwiązania HPE do pracy zdalnej

Dawno temu, kiedy komputery były duże

„Myślę, że na świecie istnieje rynek na około pięć komputerów” – mówił dyrektor generalny IBM Thomas Watson w 1943 roku.

Wczesna technologia komputerowa była wielka. Nie, to źle, wczesna technologia była potworna, cyklopowa. W pełni skomputeryzowana maszyna zajmowała powierzchnię porównywalną z salą gimnastyczną i kosztowała absolutnie nierealne pieniądze. Przykładem komponentów jest moduł RAM na pierścieniach ferrytowych (1964).

Rozwiązania HPE do pracy zdalnej

Moduł ten ma wymiary 11 cm * 11 cm i pojemność 512 bajtów (4096 bitów). Szafka całkowicie wypełniona tymi modułami ledwo miała pojemność starej dyskietki 3,5” (1.44 MB = 2950 modułów), a jednocześnie zużywała bardzo zauważalnie energię elektryczną i nagrzewała się jak lokomotywa parowa.

Właśnie ze względu na jego ogromny rozmiar angielska nazwa kodu programu debugującego brzmi „debugowanie”. Jedna z pierwszych programistek w historii, Grace Hopper (tak, kobieta), oficer marynarki, napisała wpis do dziennika w 1945 roku po zbadaniu problemu z programem.

Rozwiązania HPE do pracy zdalnej

Ponieważ ćma (ćma) w ogóle jest błędem (owadem), wszystkie dalsze problemy i działania mające na celu ich rozwiązanie pracownicy zgłaszali swoim przełożonym jako „debugowanie” (dosłownie debugowanie), wówczas nazwa błąd została zdecydowanie przypisana do awarii programu i wystąpił błąd w kodzie i debugowanie stało się debugowaniem.

Wraz z rozwojem elektroniki, w szczególności elektroniki półprzewodnikowej, fizyczne rozmiary maszyn zaczęły się zmniejszać, a moc obliczeniowa, wręcz przeciwnie, rosła. Ale nawet w tym przypadku nie było możliwości zaopatrzenia każdego w komputer osobiście.

„Nie ma powodu, dla którego ktokolwiek miałby chcieć trzymać komputer w domu” – Ken Olsen, założyciel DEC, 1977.

W latach 70. pojawił się termin minikomputer. Pamiętam, że kiedy wiele lat temu po raz pierwszy przeczytałem to określenie, wyobrażałem sobie coś w rodzaju netbooka, prawie palmtopa. Nie mógłbym być dalszy od prawdy.

Rozwiązania HPE do pracy zdalnej

Mini to tylko porównanie z ogromnymi maszynowniami, ale to wciąż kilka szafek ze sprzętem kosztującym setki tysięcy i miliony dolarów. Jednak moc obliczeniowa wzrosła już na tyle, że nie zawsze była obciążona w 100%, a jednocześnie komputery zaczęły być dostępne dla studentów i nauczycieli.

A potem przyszedł!

Rozwiązania HPE do pracy zdalnej

Niewiele osób myśli o łacińskich korzeniach języka angielskiego, ale to właśnie one zapewniły nam zdalny dostęp, jaki znamy dzisiaj. Terminus (łac.) - koniec, granica, cel. Celem Terminatora T800 było zakończenie życia Johna Connora. Wiemy również, że stacje transportowe, na których wsiadają i wysiadają pasażerowie lub załadunek i rozładunek towarów, nazywane są terminalami – końcowymi miejscami docelowymi tras.

W związku z tym narodziła się koncepcja dostępu do terminala, a najsłynniejszy terminal na świecie wciąż żyje w naszych sercach.

Rozwiązania HPE do pracy zdalnej

DEC VT100 nazywany jest terminalem, ponieważ kończy linię danych. Ma praktycznie zerową moc obliczeniową, a jego jedynym zadaniem jest wyświetlanie informacji otrzymanych z dużej maszyny i przesyłanie do niej danych wejściowych z klawiatury. I chociaż VT100 jest fizycznie już dawno martwy, nadal wykorzystujemy go w pełni.

Rozwiązania HPE do pracy zdalnej

Nasze dni

„Nasze dni” zacząłbym liczyć od początku lat 80., od momentu pojawienia się pierwszych procesorów o jakiejkolwiek znaczącej mocy obliczeniowej, dostępnych dla szerokiego grona odbiorców. Tradycyjnie uważa się, że głównym procesorem tamtej epoki był Intel 8088 (rodzina x86) jako przodek zwycięskiej architektury. Jaka jest zasadnicza różnica w stosunku do koncepcji lat 70.?

Po raz pierwszy można zaobserwować tendencję do przenoszenia przetwarzania informacji z centrum na peryferie. Nie wszystkie zadania wymagają szalonej (w porównaniu do słabej x86) mocy komputera typu mainframe lub nawet minikomputera. Intel nie stoi w miejscu, w latach 90. wypuścił rodzinę Pentium, która naprawdę stała się pierwszym masowo produkowanym urządzeniem gospodarstwa domowego w Rosji. Te procesory potrafią już wiele, nie tylko pisania listów, ale także multimediów i pracy z małymi bazami danych. Tak naprawdę w przypadku małych firm serwery w ogóle nie są potrzebne – wszystko można zrobić na peryferiach, na komputerach klienckich. Z każdym rokiem procesory stają się coraz potężniejsze, a różnica między serwerami a komputerami osobistymi jest coraz mniejsza pod względem mocy obliczeniowej, często pozostając jedynie w redundancji zasilania, obsłudze wymiany podczas pracy i specjalnych obudowach do montażu w szafie.

Jeśli porównasz nowoczesne procesory klienckie, które dla administratorów ciężkich serwerów w latach 90. były „śmieszne” dla administratorów ciężkich serwerów firmy Intel, z superkomputerami z przeszłości, poczujesz się trochę nieswojo.

Przyjrzyjmy się staruszkowi, który jest praktycznie w moim wieku. Cray X-MP/24 1984.

Rozwiązania HPE do pracy zdalnej

Maszyna ta należała do najlepszych superkomputerów 1984 roku, posiadając 2 procesory o częstotliwości 105 MHz i szczytowej mocy obliczeniowej 400 MFlops (miliony operacji zmiennoprzecinkowych). Konkretna maszyna pokazana na zdjęciu stała w laboratorium kryptograficznym amerykańskiej NSA i zajmowała się łamaniem szyfrów. Jeśli przeliczymy 15 milionów dolarów z 1984 roku na dolary z 2020 roku, koszt wyniesie 37,4 miliona dolarów, czyli 93 500 dolarów/MFlops.

Rozwiązania HPE do pracy zdalnej

Maszyna, na której piszę te słowa, ma procesor Core i5-7400 z 2017 roku, który wcale nie jest nowy, a nawet w roku jego premiery był najmłodszym 4-rdzeniowym ze wszystkich procesorów do komputerów stacjonarnych średniej półki. 4 rdzenie o częstotliwości podstawowej 3.0 GHz (3.5 z Turbo Boost) i podwojenie wątków HyperThreading dają od 19 do 47 GFlops mocy według różnych testów w cenie 16 tysięcy rubli za procesor. Jeśli zmontujesz całą maszynę, możesz przyjąć jej koszt za 750 USD (według cen i kursów wymiany z dnia 1 marca 2020 r.).

Ostatecznie uzyskujemy 50–120-krotną przewagę całkowicie przeciętnego procesora do komputerów stacjonarnych naszych czasów nad superkomputerem z pierwszej dziesiątki dającej się przewidzieć przeszłości, a spadek konkretnego kosztu MFlopsa staje się absolutnie monstrualny 10 / 93500 = 25 czasy.

Dlaczego wciąż potrzebujemy serwerów i centralizacji przetwarzania przy takiej mocy na peryferiach, jest całkowicie niezrozumiałe!

Skok w tył - spirala skręciła

Stacje bezdyskowe

Pierwszym sygnałem, że przeniesienie obliczeń na peryferia nie będzie ostateczne, było pojawienie się technologii bezdyskowych stacji roboczych. Przy znacznym rozmieszczeniu stanowisk pracy w całym przedsiębiorstwie, a szczególnie w pomieszczeniach zanieczyszczonych, kwestia zarządzania i wspierania tych stanowisk staje się bardzo trudna.

Rozwiązania HPE do pracy zdalnej

Pojawia się pojęcie „czasu korytarza” – procent czasu, jaki pracownik wsparcia technicznego przebywa na korytarzu w drodze do pracownika mającego problem. Jest to czas płatny, ale całkowicie bezproduktywny. Nie najmniej ważną rolą, szczególnie w zanieczyszczonych pomieszczeniach, była awaria dysków twardych. Usuńmy dysk ze stacji roboczej i róbmy całą resztę przez sieć, łącznie z pobieraniem. Oprócz adresu z serwera DHCP karta sieciowa otrzymuje również dodatkowe informacje - adres serwera TFTP (uproszczona obsługa plików) i nazwę obrazu rozruchowego, ładuje go do pamięci RAM i uruchamia maszynę.

Rozwiązania HPE do pracy zdalnej

Oprócz mniejszej liczby awarii i skrócenia czasu w korytarzu, nie musisz teraz debugować maszyny na miejscu, wystarczy po prostu przynieść nową, a starą zanieść do diagnostyki w wyposażonym miejscu pracy. Ale to nie wszystko!

Stacja bezdyskowa staje się znacznie bezpieczniejsza – jeśli ktoś nagle włamie się do pomieszczenia i wyjmie wszystkie komputery, oznacza to jedynie utratę sprzętu. Na stacjach bezdyskowych nie są przechowywane żadne dane.

Pamiętajmy o tym: bezpieczeństwo informacji zaczyna odgrywać coraz większą rolę po „beztroskim dzieciństwie” technologii informatycznych. A do IT coraz częściej wkraczają okropne i ważne 3 litery - GRC (Governance, Risk, Compliance), czyli po rosyjsku „Zarządzalność, Ryzyko, Zgodność”.

Rozwiązania HPE do pracy zdalnej

Serwery terminalowe

Powszechna dystrybucja coraz potężniejszych komputerów osobistych na peryferiach znacznie wyprzedziła rozwój publicznych sieci dostępowych. Klasyczne aplikacje klient-serwer z lat 90. i początku XXI wieku nie działały zbyt dobrze w przypadku cienkiego kanału, jeśli wymiana danych wynosiła jakiekolwiek znaczące wartości. Było to szczególnie trudne w przypadku zdalnych biur połączonych modemem i linią telefoniczną, które również okresowo zawieszały się lub były odcinane. I…

Spirala zawróciła i znalazła się z powrotem w trybie terminalowym wraz z koncepcją serwerów terminalowych.

Rozwiązania HPE do pracy zdalnej

Tak naprawdę wróciliśmy do lat 70. z zerową liczbą klientów i centralizacją mocy obliczeniowej. Szybko stało się oczywiste, że poza czysto ekonomicznym uzasadnieniem kanałów, dostęp terminalowy daje ogromne możliwości zorganizowania bezpiecznego dostępu z zewnątrz, w tym pracy z domu dla pracowników, czy też skrajnie ograniczonego i kontrolowanego dostępu dla wykonawców z niezaufanych sieci i niezaufanych/ urządzenia niekontrolowane.

Jednak serwery terminalowe, pomimo wszystkich swoich zalet i postępowości, miały również szereg wad - niską elastyczność, problem hałaśliwego sąsiada, system Windows ściśle serwerowy itp.

Narodziny Proto VDI

Rozwiązania HPE do pracy zdalnej

To prawda, że ​​od początku do połowy XXI wieku wirtualizacja przemysłowa platformy x00 już pojawiała się na scenie. I ktoś podsunął pomysł, który po prostu wisiał w powietrzu: zamiast centralizować wszystkich klientów w farmach terminali serwerowych, dajmy każdemu własną osobistą maszynę wirtualną z klienckim systemem Windows, a nawet dostępem administratora?

Odmowa grubych klientów

Równolegle z wirtualizacją sesji i systemu operacyjnego opracowano podejście ułatwiające funkcjonowanie klienta na poziomie aplikacji.

Logika stojąca za tym była dość prosta, ponieważ nie każdy nadal miał osobiste laptopy, nie każdy miał Internet, a wielu mogło łączyć się jedynie z kafejki internetowej z bardzo ograniczonymi, delikatnie mówiąc, prawami. W rzeczywistości wszystko, co można było uruchomić, to przeglądarka. Przeglądarka stała się nieodzownym atrybutem systemu operacyjnego, Internet mocno wkroczył w nasze życie.

Innymi słowy, równolegle panował trend przenoszenia logiki z klienta do centrum w postaci aplikacji webowych, do których dostępu wystarczy najprostszy klient, Internet i przeglądarka.
I nie tylko skończyliśmy tam, gdzie zaczęliśmy – z zerową liczbą klientów i serwerami centralnymi. Dotarliśmy tam na kilka niezależnych sposobów.

Rozwiązania HPE do pracy zdalnej

Infrastruktura wirtualnego pulpitu

Broker

W 2007 roku lider rynku wirtualizacji przemysłowej, firma VMware, wypuściła pierwszą wersję swojego produktu VDM (Virtual Desktop Manager), który stał się właściwie pierwszym na rodzącym się rynku wirtualnych desktopów. Oczywiście na reakcję lidera serwerów terminalowych, firmy Citrix, nie musieliśmy długo czekać i w 2008 roku, wraz z przejęciem XenSource, pojawił się XenDesktop. Oczywiście nie zabrakło też innych dostawców z własnymi propozycjami, ale nie zagłębiajmy się zbytnio w historię, odchodząc od koncepcji.

I ta koncepcja pozostała do dziś. Kluczowym elementem VDI jest broker połączeń.
To jest serce infrastruktury wirtualnych pulpitów.

Broker odpowiada za najważniejsze procesy VDI:

  • Określa zasoby (maszyny/sesje) dostępne dla podłączonego klienta;
  • W razie potrzeby równoważy klientów w pulach maszyn/sesji;
  • Przekazuje klienta do wybranego zasobu.

Dziś klientem (terminalem) dla VDI może być praktycznie wszystko, co posiada ekran – laptop, smartfon, tablet, kiosk, klient cienki lub zero. Oraz część odpowiedzi, ta sama, która wykonuje obciążenie produkcyjne - sesja serwera terminali, maszyna fizyczna, maszyna wirtualna. Nowoczesne, dojrzałe produkty VDI są ściśle zintegrowane z infrastrukturą wirtualną i samodzielnie zarządzają nią w trybie automatycznym, wdrażając lub przeciwnie, usuwając niepotrzebne już maszyny wirtualne.

Trochę na marginesie, ale dla niektórych klientów niezwykle ważną technologią VDI jest wsparcie sprzętowego przyspieszania grafiki 3D na potrzeby pracy projektantów czy projektantów.

Protokół

Drugą niezwykle ważną częścią dojrzałego rozwiązania VDI jest protokół dostępu do zasobów wirtualnych. Jeśli mówimy o pracy w korporacyjnej sieci lokalnej z doskonałą, niezawodną siecią 1 Gbps do miejsca pracy i opóźnieniem 1 ms, to możesz wziąć praktycznie dowolną i w ogóle nie myśleć.

Trzeba pomyśleć, kiedy połączenie odbywa się przez niekontrolowaną sieć, a jakość tej sieci może być absolutnie dowolna, aż do prędkości kilkudziesięciu kilobitów i nieprzewidywalnych opóźnień. Świetnie nadają się do organizowania prawdziwej pracy zdalnej, na daczach, w domu, na lotniskach i w restauracjach.

Serwery terminalowe a klienckie maszyny wirtualne

Wraz z pojawieniem się VDI wydawało się, że nadszedł czas, aby pożegnać się z serwerami terminali. Dlaczego są potrzebne, skoro każdy ma swoją osobistą maszynę wirtualną?

Jednak z punktu widzenia czystej ekonomii okazało się, że przy typowo masowych zadaniach, identycznych do znudzenia, nie ma nic bardziej efektywnego niż serwery terminalowe pod względem stosunku ceny do sesji. Przy wszystkich swoich zaletach podejście „1 użytkownik = 1 maszyna wirtualna” powoduje, że znacznie więcej zasobów przeznacza się na sprzęt wirtualny i pełnoprawny system operacyjny, co pogarsza ekonomikę typowych miejsc pracy.

W przypadku stanowisk pracy top managerów, stanowisk niestandardowych i obciążonych, zaletą jest konieczność posiadania wysokich uprawnień (aż do administratora), dedykowana maszyna wirtualna na użytkownika jest zaletą. W ramach tej maszyny wirtualnej można indywidualnie przydzielać zasoby, nadawać uprawnienia na dowolnym poziomie i równoważyć maszyny wirtualne pomiędzy hostami wirtualizacji przy dużym obciążeniu.

VDI i ekonomia

Od lat słyszę to samo pytanie – w czym VDI jest tańsze niż rozdawanie wszystkim laptopów? I od lat muszę odpowiadać dokładnie na to samo: w przypadku zwykłych pracowników biurowych VDI nie jest tańsze, jeśli weźmiemy pod uwagę koszty netto dostarczenia sprzętu. Cokolwiek można powiedzieć, laptopy są coraz tańsze, ale serwery, systemy pamięci masowej i oprogramowanie systemowe kosztują całkiem sporo pieniędzy. Jeśli nadszedł czas na aktualizację Twojej floty i myślisz o zaoszczędzeniu pieniędzy dzięki VDI, nie, nie zaoszczędzisz pieniędzy.

Zacytowałem powyżej te okropne trzy litery GRC - więc VDI ​​dotyczy GRC. Chodzi o zarządzanie ryzykiem, chodzi o bezpieczeństwo i wygodę kontrolowanego dostępu do danych. A wszystko to zwykle kosztuje sporo pieniędzy, aby wdrożyć je na wielu różnych typach sprzętu. Dzięki VDI kontrola jest uproszczona, bezpieczeństwo zwiększone, a włosy stają się miękkie i jedwabiste.

Rozwiązania HPE do pracy zdalnej

Zarządzanie zdalne i w chmurze

iLO

HPE nie jest wcale nowicjuszem w zdalnym zarządzaniu infrastrukturą serwerową, to nie żart – w marcu legendarne iLO (Integrated Lights Out) skończyło 18 lat. Wspominając czasy, gdy byłem administratorem w latach 00., osobiście nie mógłbym być szczęśliwszy. W hałaśliwym i zimnym centrum danych wystarczyła wstępna instalacja w szafach i kablach połączeniowych. Całą pozostałą konfigurację, łącznie z załadowaniem systemu operacyjnego, można przeprowadzić ze stacji roboczej, dwóch monitorów i kubka gorącej kawy. I to 13 lat temu!

Rozwiązania HPE do pracy zdalnej

Dziś serwery HPE nie bez powodu są niekwestionowanym, długoterminowym standardem jakości – a nie najmniejszą rolę odgrywa w tym złoty standard systemu zdalnego zarządzania – iLO.

Rozwiązania HPE do pracy zdalnej

Chciałbym szczególnie zwrócić uwagę na działania HPE mające na celu utrzymanie kontroli ludzkości nad koronawirusem. Ogłoszono HPE, że do końca 2020 roku (przynajmniej) licencja iLO Advanced będzie dostępna dla każdego za darmo.

Informacje

Jeśli w swojej infrastrukturze masz więcej niż 10 serwerów, a administrator się nie nudzi, to oczywiście system chmurowy HPE Infosight oparty na sztucznej inteligencji będzie doskonałym uzupełnieniem standardowych narzędzi monitorujących. System nie tylko monitoruje stan i buduje wykresy, ale także samodzielnie rekomenduje dalsze działania w oparciu o aktualną sytuację i trendy.

Rozwiązania HPE do pracy zdalnej

Rozwiązania HPE do pracy zdalnej

Bądź mądry, bądź jak Otkritie Bank, wypróbuj Infosight!

Jeden widok

Na koniec chciałbym wspomnieć o HPE OneView – pełnym portfolio produktów z ogromnymi możliwościami monitorowania i zarządzania całą infrastrukturą. A to wszystko bez wstawania od biurka, co możesz mieć w obecnej sytuacji na swojej daczy.

Rozwiązania HPE do pracy zdalnej

Systemy przechowywania też nie są złe!

Oczywiście wszystkie systemy magazynowania są zdalnie zarządzane i monitorowane – tak było wiele lat temu. Dlatego chcę dzisiaj porozmawiać o czymś innym, a mianowicie o klastrach metra.

Klastry Metro nie są nowością na rynku, ale właśnie dlatego wciąż nie cieszą się dużą popularnością – wpływa na nie inercja myślenia i pierwsze wrażenia. Oczywiście istniały już 10 lat temu, ale kosztowały jak żeliwny most. Lata, które minęły od powstania pierwszych metropolitalnych klastrów, zmieniły branżę i dostępność technologii dla ogółu społeczeństwa.

Pamiętam projekty, w których specjalnie dystrybuowano części systemów pamięci masowej – osobno dla usług nadkrytycznych w klastrze metropolitalnym, osobno dla replikacji synchronicznej (znacznie taniej).

Tak naprawdę w 2020 r. metropolita nic Cię nie kosztuje, jeśli jesteś w stanie zorganizować dwie witryny i kanały. Jednak kanały wymagane do replikacji synchronicznej są dokładnie takie same, jak w przypadku metropolitalnych klastrów. Licencjonowanie oprogramowania od dawna realizowane jest w pakietach - a replikacja synchroniczna pojawia się od razu w pakiecie z klastrem Metro, a jedyne co na razie podtrzymuje replikację jednokierunkową przy życiu to konieczność zorganizowania rozbudowanej sieci L2. I nawet wtedy L2 nad L3 już z całą mocą rozprzestrzenia się po całym kraju.

Rozwiązania HPE do pracy zdalnej

Jaka jest zatem zasadnicza różnica między replikacją synchroniczną a metropolitalnym z punktu widzenia pracy zdalnej?

Wszystko jest bardzo proste. Metroklaster działa sam, automatycznie, zawsze, niemal natychmiast.

Jak wygląda proces przełączania obciążenia dla replikacji synchronicznej na infrastrukturze składającej się z co najmniej kilkuset maszyn wirtualnych?

  1. Odebrano sygnał alarmowy.
  2. Dyżurny analizuje sytuację – możesz spokojnie przeznaczyć od 10 do 30 minut na otrzymanie sygnału i podjęcie decyzji.
  3. Jeżeli dyżurujący inżynierowie nie mają uprawnień do samodzielnego rozpoczęcia przełączenia, mają jeszcze 30 minut na skontaktowanie się z osobą upoważnioną i formalne potwierdzenie rozpoczęcia przełączenia.
  4. Naciśnięcie dużego czerwonego przycisku.
  5. 10–15 minut w przypadku przekroczenia limitu czasu i ponownego podłączenia woluminu, ponownej rejestracji maszyny wirtualnej.
  6. 30 minut na zmianę adresu IP to optymistyczny szacunek.
  7. I wreszcie start VM i uruchomienie usług produktywnych.

Całkowity RTO (czas przywrócenia procesów biznesowych) można bezpiecznie oszacować na 4 godziny.

Porównajmy to z sytuacją w metrogromadzie.

  1. System przechowywania rozumie, że połączenie z ramieniem Metrocluster zostało utracone - 15-30 sekund.
  2. Hosty wirtualizacji rozumieją, że traci się pierwsze centrum danych - 15-30 sekund (jednocześnie z punktem 1).
  3. Automatyczny restart połowy do jednej trzeciej maszyn wirtualnych w drugim centrum danych – 10–15 minut przed załadowaniem usług.
  4. Mniej więcej w tym czasie dyżurny zdaje sobie sprawę, co się stało.

Razem: RTO = 0 dla poszczególnych usług, 10-15 minut w przypadku ogólnym.

Dlaczego tylko połowa do jednej trzeciej maszyn wirtualnych jest uruchamiana ponownie? Zobacz, co się dzieje:

  1. Robisz wszystko mądrze i umożliwiasz automatyczne równoważenie VM. W rezultacie w jednym z centrów danych działa średnio tylko połowa maszyn wirtualnych. W końcu celem metropolitalnego klastra jest minimalizowanie przestojów, dlatego też w Twoim interesie leży minimalizacja liczby atakowanych maszyn wirtualnych.
  2. Niektóre usługi można grupować na poziomie aplikacji i dystrybuować na różnych maszynach wirtualnych. W związku z tym te sparowane maszyny wirtualne są przybijane jedna po drugiej lub przywiązywane wstążką do różnych centrów danych, dzięki czemu usługa nie czeka na ponowne uruchomienie maszyny wirtualnej w razie wypadku.

Dzięki dobrze zbudowanej infrastrukturze z rozbudowanymi klastrami miejskimi użytkownicy biznesowi mogą pracować z minimalnymi opóźnieniami z dowolnego miejsca, nawet w przypadku wypadku na poziomie centrum danych. W najgorszym przypadku opóźnieniem będzie czas wypicia jednej filiżanki kawy.

No i oczywiście metroklastry świetnie sprawdzają się zarówno na HPE 3Par, który zmierza w stronę Valinoru, jak i na zupełnie nowej Primerze!

Rozwiązania HPE do pracy zdalnej

Infrastruktura miejsca pracy zdalnej

Serwery terminalowe

Dla serwerów terminalowych nie trzeba wymyślać nic nowego, HPE od wielu lat dostarcza im jedne z najlepszych serwerów na świecie. Ponadczasowa klasyka - DL360 (1U) lub DL380 (2U) lub dla fanów AMD - DL385. Oczywiście nie brakuje też serwerów typu blade, zarówno klasycznego C7000, jak i nowej platformy komponowalnej Synergy.

Rozwiązania HPE do pracy zdalnej

Na każdy gust, na każdy kolor, maksymalna liczba sesji na serwer!

„Klasyczne” VDI + prostota HPE

W tym przypadku, mówiąc „klasyczne VDI”, mam na myśli koncepcję 1 użytkownika = 1 maszyny wirtualnej z systemem klienckim Windows. I oczywiście nie ma większego i droższego obciążenia VDI dla systemów hiperkonwergentnych, zwłaszcza z deduplikacją i kompresją.

Rozwiązania HPE do pracy zdalnej

W tym przypadku HPE może zaoferować zarówno własną hiperkonwergentną platformę Simplivity, jak i serwery/certyfikowane węzły dla rozwiązań partnerskich, takie jak VSAN Ready Nodes do budowania VDI w infrastrukturze VMware VSAN.

Porozmawiajmy trochę więcej o własnym rozwiązaniu Simplicity. Celem, jak sama nazwa delikatnie wskazuje, jest prostota. Łatwy we wdrożeniu, łatwy w zarządzaniu, łatwy do skalowania.

Systemy hiperkonwergentne są dziś jednym z najgorętszych tematów w IT, a liczba dostawców na różnych poziomach wynosi około 40. Według magicznego kwadratu Gartnera HPE znajduje się w pierwszej piątce na świecie i znajduje się w kwadracie liderów – tych, którzy rozumieją gdzie branża się rozwija i potrafią ją zrozumieć, przełożyć na sprzęt.

Architektonicznie Simplivity to klasyczny system hiperkonwergentny z maszynami wirtualnymi kontrolerów, co oznacza, że ​​może obsługiwać różne hypervisory, w przeciwieństwie do systemów zintegrowanych z hypervisorami. Rzeczywiście, od kwietnia 2020 r. obsługiwane są VMware vSphere i Microsoft Hyper-V i ogłoszono plany obsługi KVM. Kluczową cechą Simplivity od momentu pojawienia się na rynku było sprzętowe przyspieszanie kompresji i deduplikacji za pomocą specjalnej karty akceleratora.

Rozwiązania HPE do pracy zdalnej

Należy zauważyć, że kompresja i deduplikacja mają charakter globalny i są zawsze włączone; nie jest to funkcja opcjonalna, ale architektura rozwiązania.

Rozwiązania HPE do pracy zdalnej

HPE jest oczywiście nieco nieszczere, twierdząc, że wydajność wynosi 100:1, obliczając ją w specjalny sposób, ale efektywność wykorzystania przestrzeni jest rzeczywiście bardzo wysoka. Po prostu liczba 100:1 jest zbyt piękna. Zastanówmy się, jak technicznie zaimplementowano prostotę, aby pokazać takie liczby.

Migawka. Migawki są w 100% poprawnie implementowane jako RoW (Redirect-on-Write), dlatego pojawiają się natychmiast i nie powodują spadku wydajności. Czym na przykład różnią się od niektórych innych systemów. Dlaczego potrzebujemy lokalnych migawek bez kar? Tak, to bardzo proste, zmniejszyć RPO z 24 godzin (średni RPO dla kopii zapasowych) do dziesiątek, a nawet jednostek minut.

backup. Migawka różni się od kopii zapasowej jedynie tym, jak jest postrzegana przez system zarządzania maszyną wirtualną. Jeśli po usunięciu komputera wszystkie inne zostaną usunięte, oznacza to, że była to migawka. Jeśli coś zostało, oznacza to, że jest to kopia zapasowa. Zatem każdą migawkę można uznać za pełną kopię zapasową, jeśli zostanie ona oznaczona w systemie i nie usunięta.

Oczywiście wielu sprzeciwi się - co to za kopia zapasowa, jeśli jest przechowywana w tym samym systemie? I tutaj jest bardzo prosta odpowiedź w formie pytania kontr-pytania: powiedz mi, czy masz formalny model zagrożenia, który ustala zasady przechowywania kopii zapasowej? Jest to absolutnie uczciwa kopia zapasowa na wypadek usunięcia pliku z maszyny wirtualnej, jest to kopia zapasowa na wypadek usunięcia samej maszyny wirtualnej. Jeśli zachodzi potrzeba przechowywania kopii zapasowej wyłącznie na oddzielnym systemie, masz wybór: replikacja tej migawki do drugiego klastra Simplivity lub do HPE StoreOnce.

Rozwiązania HPE do pracy zdalnej

I tu okazuje się, że taka architektura jest po prostu idealna dla każdego typu VDI. W końcu VDI to setki, a nawet tysiące niezwykle podobnych maszyn z tym samym systemem operacyjnym i tymi samymi aplikacjami. Globalna deduplikacja to wszystko przeżuje i skompresuje nawet nie 100:1, ale znacznie lepiej. Wdrożyć 1000 maszyn wirtualnych z jednego szablonu? Nie stanowi to żadnego problemu, rejestracja tych maszyn w vCenter zajmie więcej czasu niż klonowanie.

Linia Simplivity G została stworzona specjalnie dla użytkowników o specjalnych wymaganiach wydajnościowych oraz dla tych, którzy potrzebują akceleratorów 3D.

Rozwiązania HPE do pracy zdalnej

Seria ta nie wykorzystuje sprzętowego akceleratora deduplikacji i dlatego zmniejsza ilość dysków na węzeł tak, aby kontroler obsługiwał to programowo. Zwalnia to gniazda PCIe na inne akceleratory. Ilość dostępnej pamięci na węzeł została również podwojona do 3 TB dla najbardziej wymagających obciążeń.

Rozwiązania HPE do pracy zdalnej

Prostota jest idealna do organizowania rozproszonej geograficznie infrastruktury VDI z replikacją danych do centralnego centrum danych.

Rozwiązania HPE do pracy zdalnej

Taka architektura VDI (i nie tylko VDI) jest szczególnie interesująca w kontekście rosyjskich realiów – ogromnych odległości (a co za tym idzie opóźnień) i dalekich od ideału kanałów. Tworzone są centra regionalne (lub nawet tylko 1-2 węzły Simplivity w całkowicie zdalnym biurze), w których lokalni użytkownicy łączą się szybkimi kanałami, zachowana jest pełna kontrola i zarządzanie z centrum, a tylko niewielka ilość realnych, wartościowych i nie śmieci, są replikowane do danych centralnych.

Oczywiście Simplivity jest w pełni połączone z OneView i InfoSight.

Cienki i zerowy klient

Cienki klient to wyspecjalizowane rozwiązania do użytku wyłącznie jako terminale. Ponieważ klient nie ma praktycznie żadnego obciążenia poza utrzymaniem kanału i dekodowaniem wideo, prawie zawsze jest procesor z pasywnym chłodzeniem, mały dysk rozruchowy tylko do uruchamiania specjalnego wbudowanego systemu operacyjnego i to w zasadzie wszystko. Praktycznie nie ma w nim nic do włamania, a kradzież nie ma sensu. Koszt jest niski i nie są przechowywane żadne dane.

Istnieje specjalna kategoria cienkich klientów, tzw. klienci zerowi. Ich główną różnicą w stosunku do cienkich jest brak nawet wbudowanego systemu operacyjnego ogólnego przeznaczenia i praca wyłącznie z mikrochipem z oprogramowaniem układowym. Często zawierają specjalne akceleratory sprzętowe do dekodowania strumieni wideo w protokołach terminalowych, takich jak PCoIP czy HDX.

Pomimo podziału dużego Hewlett Packarda na osobne HPE i HP, nie sposób nie wspomnieć o cienkich klientach produkowanych przez HP.

Wybór jest szeroki, dostosowany do każdego gustu i potrzeby – aż do wielomonitorowych stacji roboczych ze sprzętową akceleracją strumienia wideo.

Rozwiązania HPE do pracy zdalnej

Usługa HPE do pracy zdalnej

I na koniec chcę wspomnieć o serwisie HPE. Wyliczenie wszystkich poziomów usług i możliwości HPE byłoby zbyt długie, ale istnieje przynajmniej jedna niezwykle ważna oferta dla środowisk pracy zdalnej. Mianowicie inżynier serwisu z HPE/autoryzowanego centrum serwisowego. Ty w dalszym ciągu pracujesz zdalnie, z ulubionej daczy, słuchając trzmieli, podczas gdy pszczoła z HPE, przybywając do data center, wymienia dyski lub uszkodzony zasilacz w Twoich serwerach.

HPE CallHome

W dzisiejszych warunkach, z ograniczeniami w poruszaniu się, funkcja Call Home staje się ważniejsza niż kiedykolwiek. Każdy system HPE wyposażony w tę funkcję może samodzielnie zgłosić awarię sprzętu lub oprogramowania do Centrum wsparcia HPE. Jest prawdopodobne, że część zamienna i/lub inżynier serwisu dotrą do Twojej lokalizacji na długo przed zauważeniem jakichkolwiek usterek lub problemów z produktywnymi usługami.

Osobiście gorąco polecam włączenie tej funkcji.

Źródło: www.habr.com

Dodaj komentarz