Vi setter sammen en server for grafikk- og CAD/CAM-applikasjoner for fjernarbeid via RDP basert på en CISCO UCS-C220 M3 v2

Vi setter sammen en server for grafikk- og CAD/CAM-applikasjoner for fjernarbeid via RDP basert på en CISCO UCS-C220 M3 v2
Nesten alle bedrifter har nå nødvendigvis en avdeling eller gruppe som jobber i CAD/CAM
eller tunge designprogrammer. Denne gruppen brukere er forent av alvorlige krav til maskinvare: mye minne - 64 GB eller mer, et profesjonelt skjermkort, en rask ssd, og at det er pålitelig. Bedrifter kjøper ofte flere kraftige PC-er (eller grafikkstasjoner) for noen brukere av slike avdelinger og mindre kraftige for andre, avhengig av bedriftens behov og økonomiske muligheter. Dette er ofte standardmetoden for å løse slike problemer, og det fungerer fint. Men under en pandemi og eksternt arbeid, og generelt, er denne tilnærmingen suboptimal, veldig overflødig og ekstremt upraktisk i administrasjon, ledelse og andre aspekter. Hvorfor er det slik, og hvilken løsning vil ideelt sett møte behovene til grafikkstasjoner til mange selskaper? Velkommen til katten, som beskriver hvordan man setter sammen en fungerende og rimelig løsning for å drepe og mate flere fluer i en smekk, og hvilke små nyanser som må tas i betraktning for å kunne implementere denne løsningen.

I desember i fjor åpnet ett selskap et nytt kontor for et lite designkontor og fikk i oppgave å organisere hele datainfrastrukturen for dem, gitt at selskapet allerede hadde bærbare datamaskiner for brukere og et par servere. De bærbare datamaskinene var allerede et par år gamle og var hovedsakelig spillkonfigurasjoner med 8-16 GB RAM, og kunne generelt ikke takle belastningen fra CAD/CAM-applikasjoner. Brukere må være mobile, da de ofte må jobbe borte fra kontoret. På kontoret kjøpes det en ekstra skjerm til hver bærbar PC (slik fungerer de med grafikk). Med slike inngangsdata er den eneste optimale, men risikable løsningen for meg å implementere en kraftig terminalserver med et kraftig profesjonelt skjermkort og en nvme ssd-disk.

Fordeler med en grafisk terminalserver og arbeid via RDP

  • På individuelle kraftige PC-er eller grafikkstasjoner blir det meste av tiden ikke engang brukt maskinvareressurser av en tredjedel og forblir inaktive og brukes på 35-100 % av kapasiteten bare i en kort periode. I utgangspunktet er effektiviteten 5-20 prosent.
  • Men ofte er maskinvaren langt fra den dyreste komponenten, fordi grunnleggende grafikk eller CAD/CAM-programvarelisenser ofte koster fra $5000 10, og selv med avanserte alternativer, fra $000 XNUMX. Vanligvis kjører disse programmene i en RDP-økt uten problemer, men noen ganger må du i tillegg bestille RDP-alternativet, eller søke i forumene etter hva du skal skrive i konfigurasjonene eller registret og hvordan du kjører slik programvare i en RDP-økt. Men sjekk at programvaren vi trenger fungerer via RDP nødvendig helt i begynnelsen og dette er enkelt å gjøre: vi prøver å logge inn via RDP - hvis programmet har startet og alle grunnleggende programvarefunksjoner fungerer, vil det mest sannsynlig ikke være noen problemer med lisenser. Og hvis det gir en feil, så før vi implementerer et prosjekt med en grafisk terminalserver, ser vi etter en løsning på problemet som er tilfredsstillende for oss.
  • Et stort pluss er også støtte for samme konfigurasjon og spesifikke innstillinger, komponenter og maler, som ofte er vanskelig å implementere for alle PC-brukere. Administrasjon, administrasjon og programvareoppdateringer er også "uten problemer"

Generelt er det mange fordeler - la oss se hvordan vår nesten ideelle løsning viser seg i praksis.

Vi setter sammen en server basert på en brukt CISCO UCS-C220 M3 v2

I utgangspunktet var det planlagt å kjøpe en nyere og kraftigere server med 256GB DDR3 ecc-minne og 10GB ethernet, men de sa at vi måtte spare litt og passe inn i budsjettet for en terminalserver på $1600. Vel, ok - klienten er alltid grådig og har rett, og vi velger dette beløpet:

brukt CISCO UCS-C220 M3 v2 (2 X SIX CORE 2.10GHZ E5-2620 v2) 128GB DDR3 ecc - $625
3.5" 3TB sas 7200 US ID - 2×65$=130$
SSD M.2 2280 970 PRO, PCI-E 3.0 (x4) 512 GB Samsung — $200
Videokort QUADRO P2200 5120MB — $470
Ewell PCI-E 3.0 til M.2 SSD-adapter (EW239) -10$
Totalt per server = $1435

Det var planlagt å ta en 1TB ssd og en 10GB Ethernet-adapter - $40, men det viste seg at det ikke var noen UPS for deres 2 servere, og vi måtte snurre litt og kjøpe en UPS PowerWalker VI 2200 RLE - $350.

Hvorfor en server og ikke en kraftig PC? Begrunnelse for den valgte konfigurasjonen.

Mange nærsynte administratorer (jeg har støtt på dette mange ganger før) kjøper av en eller annen grunn en kraftig PC (ofte en spill-PC), legger 2-4 disker der, lager RAID 1, kaller det stolt en server og legger den i hjørnet av kontoret. Hele pakken er naturlig - en "hodgepodge" av tvilsom kvalitet. Derfor vil jeg beskrive i detalj hvorfor akkurat denne konfigurasjonen ble valgt for et slikt budsjett.

  1. Pålitelighet!!! — alle serverkomponenter er designet og testet for å fungere i mer enn 5-10 år. Og spillmødre jobber i 3-5 år på det meste, og til og med prosentandelen av sammenbrudd i garantiperioden for noen overstiger 5%. Og serveren vår er fra det superpålitelige CISCO-merket, så det forventes ingen spesielle problemer, og sannsynligheten deres er en størrelsesorden lavere enn en stasjonær PC
  2. Viktige komponenter som strømforsyningen er duplisert, og ideelt sett kan strøm leveres fra to forskjellige linjer, og hvis en enhet svikter, fortsetter serveren å fungere
  3. ECC-minne - nå er det få som husker at i utgangspunktet ble ECC-minne introdusert for å korrigere en bit fra en feil som hovedsakelig oppstår fra effekten av kosmiske stråler, og med en minnekapasitet på 128 GB - en feil kan oppstå flere ganger i året. På en stasjonær PC kan vi observere at programmet krasjer, fryser, etc., noe som ikke er kritisk, men på serveren er kostnadene for en feil noen ganger veldig høye (for eksempel en feil oppføring i databasen), i vårt tilfelle, i tilfelle en alvorlig feil, er det nødvendig å starte på nytt, og noen ganger koster det flere personer en dags arbeid
  4. Skalerbarhet - ofte vokser et selskaps behov for ressurser flere ganger i løpet av et par år og det er enkelt å legge til diskminne til serveren, bytte prosessor (i vårt tilfelle seks-kjerners E5-2620 til ti-kjerners Xeon E5 2690 v2) - det er nesten ingen skalerbarhet på en vanlig PC
  5. Serverformat U1 - servere skal være i serverrom! og i kompakte stativer, i stedet for å fyre opp (opptil 1KW varme) og lage støy i hjørnet av kontoret! Bare på det nye kontoret til selskapet ble det gitt litt (3-6 enheter) plass i serverrommet separat, og en enhet på serveren vår var rett ved siden av oss.
  6. Ekstern: administrasjon og konsoll - uten dette vanlige servervedlikeholdet for eksternt! ekstremt vanskelig arbeid!
  7. 128GB RAM - de tekniske spesifikasjonene sa 8-10 brukere, men i virkeligheten vil det være 5-6 samtidige økter - derfor, tatt i betraktning det typiske maksimale minneforbruket i det selskapet, 2 brukere på 30-40GB = 70GB og 4 brukere på 3-15GB = 36GB, + opptil 10GB per operativsystem for totalt 116GB og 10% i reserve (det er alt i sjeldne tilfeller med maksimal bruk. Men hvis det ikke er nok, kan du legge til opptil 256GB når som helst tid
  8. Skjermkort QUADRO P2200 5120MB - i gjennomsnitt per bruker i det selskapet i
    I en ekstern økt var videominneforbruket fra 0,3 GB til 1,5 GB, så 5 GB ville være nok. De første dataene ble hentet fra en lignende, men mindre kraftig løsning basert på i5/64GB/Quadro P620 2GB, som var nok til 3-4 brukere
  9. SSD M.2 2280 970 PRO, PCI-E 3.0 (x4) 512GB Samsung - for samtidig drift
    8-10 brukere, det som trengs er hastigheten til NVMe og påliteligheten til Samsung ssd. Når det gjelder funksjonalitet, vil denne disken bli brukt til OS og applikasjoner
  10. 2x3TB sas - kombinert til RAID 1 brukt for voluminøse eller sjelden brukte lokale brukerdata, samt for systemsikkerhetskopiering og kritiske lokale data fra nvme-disken

Konfigurasjonen er godkjent og kjøpt, og snart kommer sannhetens øyeblikk!

Montering, konfigurasjon, installasjon og problemløsning.

Helt fra begynnelsen var jeg ikke sikker på at dette var en 100% fungerende løsning, siden man på et hvilket som helst stadium, fra montering til installasjon, lansering og korrekt drift av applikasjoner, kunne bli sittende fast uten muligheten til å fortsette, så jeg var enig om server som den ville være innenfor Det vil være mulig å returnere den i løpet av et par dager, og andre komponenter kan brukes i en alternativ løsning.

1 langsiktig problem - skjermkortet er profesjonelt, fullformat! + et par mm, men hva om det ikke passer? 75W - hva hvis PCI-kontakten ikke fungerer? Og hvordan lage en vanlig kjøleribbe for disse 75W? Men det passet, det startet, varmespredningen er normal (spesielt hvis serverkjølerne er slått på med en høyere hastighet enn gjennomsnittet. Men da jeg installerte den, for å være sikker på at ingenting skulle kortslutte, bøyde jeg noe i serveren med 1 mm (husker ikke hva), men for bedre varmeavledning fra lokket. Serveren rev så etter siste oppsett av instruksjonsfilmen som var på hele lokket og som kunne svekke varmeavledningen gjennom lokket.

2. test - NVMe-disken er kanskje ikke synlig gjennom adapteren, eller systemet vil ikke bli installert der, og hvis det er installert, vil det ikke starte opp. Merkelig nok ble Windows installert på en NVMe-disk, men kunne ikke starte opp fra den, noe som er logisk siden BIOS (selv den oppdaterte) ikke ønsket å gjenkjenne NVMe på noen måte for oppstart. Jeg ville ikke være en krykke, men jeg måtte - her kom favorittknutepunktet og posten vår til unnsetning om oppstart fra nvme-disk på eldre systemer lastet ned Boot Disk Utility (BDUtility.exe), opprettet en flash-stasjon med CloverBootManager i henhold til instruksjonene fra innlegget, installerte flash-stasjonen i BIOS først for å starte opp, og nå laster vi bootloaderen fra flash-stasjonen, Clover så vellykket NVMe-disken vår og startet automatisk fra den i et par sekunder! Vi kunne leke med å installere kløver på raid 3TB-disken vår, men det var allerede lørdag kveld, og det var fortsatt en arbeidsdag igjen, for frem til mandag måtte vi enten overlevere serveren eller forlate den. Jeg la igjen den oppstartbare USB-flashstasjonen inne i serveren; det var en ekstra USB der.

3. nesten en trussel om fiasko. Jeg installerte Windows 2019 standard +RD-tjenester, installerte hovedapplikasjonen som alt ble startet for, og alt fungerer fantastisk og flyr bokstavelig talt.

Fantastisk! Jeg kjører hjem og kobler til via RDP, applikasjonen starter, men det er en alvorlig forsinkelse, jeg ser på programmet og meldingen "myk modus er på" vises i programmet. Hva?! Jeg ser etter nyere og superprofesjonell ved til skjermkortet, jeg gir null resultater, eldre ved til p1000 er heller ingenting. Og på dette tidspunktet fortsetter den indre stemmen å håne "Jeg sa til deg - ikke eksperimenter med de ferske tingene - ta p1000." Og det er på tide - det er allerede natt i hagen, jeg legger meg med tungt hjerte. Søndag skal jeg til kontoret - jeg setter en quadro P620 inn på serveren, og den fungerer heller ikke via RDP - MS, hva er i veien? Jeg søkte i forumene etter "2019-server og RDP" og fant svaret nesten umiddelbart.

Det viser seg at siden de fleste nå har skjermer med høy oppløsning, og på de fleste servere støtter ikke den innebygde grafikkadapteren disse oppløsningene, er maskinvareakselerasjon deaktivert som standard gjennom gruppepolicyer. Jeg siterer instruksjonene for inkludering:

  • Åpne Rediger gruppepolicy-verktøyet fra kontrollpanelet eller bruk Windows Søk-dialogen (Windows-tast + R, og skriv deretter inn gpedit.msc)
  • Bla til: Lokal datamaskinpolicy DatamaskinkonfigurasjonAdministrative malerWindows-komponenter Eksternt skrivebord-tjenester Eksternt skrivebord-økt Vert Eksternt sesjonsmiljø
  • Aktiver deretter "Bruk standard grafikkadapter for maskinvare for alle Remote Desktop Services-økter"

Vi starter på nytt - alt fungerer bra via RDP. Vi bytter skjermkortet til P2200 og det fungerer igjen! Nå som vi er sikre på at løsningen fungerer fullt ut, bringer vi alle serverinnstillingene til ideelle, legger dem inn i domenet, konfigurerer brukertilgang osv., og installerer serveren i serverrommet. Vi testet det med hele teamet i et par dager - alt fungerer perfekt, det er nok serverressurser for alle oppgaver, den minimale forsinkelsen som oppstår som et resultat av å jobbe via RDP er usynlig for alle brukere. Flott - oppgaven ble fullført 100%.

Et par punkter som suksessen med å implementere en grafisk server avhenger av

Siden på et hvilket som helst stadium av implementering av en grafisk server i en organisasjon, kan det oppstå fallgruver som kan skape en situasjon som ligner på den på bildet med den rømte fisken

Vi setter sammen en server for grafikk- og CAD/CAM-applikasjoner for fjernarbeid via RDP basert på en CISCO UCS-C220 M3 v2

så på planleggingsstadiet må du ta noen få enkle trinn:

  1. Målgruppen og oppgavene er brukere som jobber intensivt med grafikk og trenger maskinvareakselerasjon av et skjermkort. Suksessen til løsningen vår er basert på det faktum at strømbehovet til brukere av grafikk- og CAD/CAM-programmer ble dekket i overkant for mer enn 10 år siden, og for øyeblikket har vi en strømreserve som overstiger behovene med 10 ganger eller mer. For eksempel er kraften til Quadro P2200 GPU mer enn nok for 10 brukere, og selv med utilstrekkelig videominne, gjør skjermkortet opp for det fra RAM, og for en vanlig 3D-utvikler går et så lite fall i minnehastighet ubemerket. . Men hvis brukernes oppgaver inkluderer intensive databehandlingsoppgaver (gjengivelse, beregninger osv.), som ofte bruker 100 % av ressursene, er løsningen vår ikke egnet, siden andre brukere ikke vil kunne jobbe normalt i disse periodene. Derfor analyserer vi nøye brukeroppgaver og gjeldende ressursbelastning (minst omtrentlig). Vi legger også merke til volumet av omskriving til disken per dag, og hvis det er et stort volum, velger vi server ssd eller optane-stasjoner for dette volumet.
  2. Basert på antall brukere velger vi en server, skjermkort og disker som passer for ressurser:
    • prosessorer i henhold til formelen 1 kjerne per bruker + 2,3 per OS, uansett, hver på en gang bruker ikke én eller maksimalt to (hvis modellen sjelden er lastet) kjerner;
    • skjermkort - se på gjennomsnittlig mengde videominne og GPU-forbruk per bruker i en RDP-økt og velg en profesjonell! skjermkort;
    • Vi gjør det samme med RAM og diskundersystem (i dag kan du til og med velge RAID nvme rimelig).
  3. Vi sjekker dokumentasjonen for serveren nøye (heldigvis har alle merkede servere fullstendig dokumentasjon) for samsvar med koblinger, hastigheter, strømforsyning og støttede teknologier, samt fysiske dimensjoner og varmespredningsstandarder for installerte tilleggskomponenter.
  4. Vi sjekker den normale driften av programvaren vår i flere økter via RDP, samt for fravær av lisensieringsbegrensninger og kontrollerer nøye tilgjengeligheten til de nødvendige lisensene. Vi løser dette problemet før de første trinnene i implementeringen. Som det ble sagt i kommentaren av kjære malefix
    «- Lisenser kan knyttes til antall brukere – da bryter du lisensen.
    "Programvaren fungerer kanskje ikke riktig med flere kjørende forekomster - hvis den skriver søppel eller innstillinger på minst ett sted, ikke til brukerprofilen / %temp%, men til noe offentlig tilgjengelig - vil du ha mye moro med å fange problemet senere ."
  5. Vi tenker på hvor den grafiske serveren skal installeres, ikke glem UPS og tilstedeværelsen av høyhastighets Ethernet-porter og Internett der (om nødvendig), samt overholdelse av serverens klimatiske krav.
  6. Vi øker implementeringsperioden til minst 2,5-3 uker, fordi mange selv små nødvendige komponenter kan ta opptil to uker, men montering og konfigurasjon tar flere dager - bare en normal serverlasting til OS kan ta mer enn 5 minutter.
  7. Vi diskuterer med ledelsen og leverandører at hvis prosjektet plutselig på noe stadium ikke går bra eller går galt, så kan vi foreta en retur eller erstatning.
  8. Det ble også vennligst foreslått i malefix kommentarer
    etter alle eksperimentene med innstillingene, riv alt og installer det fra bunnen av. Som dette:
    — under eksperimenter er det nødvendig å dokumentere alle kritiske innstillinger
    - under en ny installasjon gjentar du minimumskravene (som du dokumenterte i forrige trinn)
  9. Vi installerer først operativsystemet (helst Windows server 2019 - det har høykvalitets RDP) i prøvemodus, men evaluerer det under ingen omstendigheter (du må da installere det på nytt fra bunnen av). Og først etter en vellykket lansering løser vi problemer med lisenser og aktiverer operativsystemet.
  10. Før implementering velger vi også en initiativgruppe for å teste arbeidet og forklare fremtidige brukere fordelene ved å jobbe med en grafisk server. Hvis du gjør dette senere, øker vi risikoen for klager, sabotasje og udokumenterte negative anmeldelser.

Å jobbe via RDP føles ikke annerledes enn å jobbe i en lokal økt. Ofte glemmer du til og med at du jobber et sted via RDP - tross alt fungerer til og med video og noen ganger videokommunikasjon i en RDP-økt uten merkbare forsinkelser, for nå har de fleste en høyhastighets Internett-tilkobling. Når det gjelder hastighet og funksjonalitet til RDP, fortsetter Microsoft nå å gledelig overraske med 3D maskinvareakselerasjon og multimonitorer - alt som brukere av grafikk, 3D og CAD/CAM-programmer trenger for eksternt arbeid!

Så i mange tilfeller er det å foretrekke å installere en grafisk server i henhold til implementeringen som er utført og mer mobil enn 10 grafiske stasjoner eller en PC.

PS Hvordan koble til enkelt og sikkert via Internett via RDP, samt de optimale innstillingene for RDP-klienter - du kan se i artikkelen "Fjernarbeid på kontoret. RDP, Port Knocking, Mikrotik: enkelt og sikkert"

Kilde: www.habr.com

Legg til en kommentar