ProHoster > Log > administrasjon > Oppretting av en feiltolerant IT-infrastruktur. Del 1 - forbereder å distribuere en oVirt 4.3-klynge
Oppretting av en feiltolerant IT-infrastruktur. Del 1 - forbereder å distribuere en oVirt 4.3-klynge
Leserne inviteres til å gjøre seg kjent med prinsippene for å bygge en feiltolerant infrastruktur for en liten bedrift innenfor et enkelt datasenter, som vil bli diskutert i detalj i en kort artikkelserie.
prodrome
under Datasenter (Databehandlingssenter) kan forstås som:
ditt eget rack i ditt eget "serverrom" i bedriftens lokaler, som oppfyller minimumskravene for strømforsyning og kjøling av utstyr, og har også Internett-tilgang gjennom to uavhengige leverandører;
et leid stativ med eget utstyr, plassert i et ekte datasenter - det såkalte. samlokalisering, som samsvarer med Tier III- eller IV-standarden, og som garanterer pålitelig strømforsyning, kjøling og feiltolerant Internett-tilgang;
fullt leid utstyr i et Tier III- eller IV-datasenter.
Hvilket overnattingsalternativ du skal velge er individuelt i hvert enkelt tilfelle, og avhenger vanligvis av flere hovedfaktorer:
Hvorfor trenger en bedrift sin egen IT-infrastruktur?
hva nøyaktig ønsker bedriften fra IT-infrastrukturen (pålitelighet, skalerbarhet, administrerbarhet, etc.);
volumet av innledende investeringer i IT-infrastrukturen, samt hvilken type kostnader for det - kapital (som betyr at du kjøper ditt eget utstyr), eller operativt (utstyr leies vanligvis);
planleggingshorisont for selve virksomheten.
Det kan skrives mye om faktorene som påvirker en bedrifts beslutning om å opprette og bruke IT-infrastrukturen, men vårt mål er å vise i praksis hvordan man kan lage nettopp denne infrastrukturen slik at den både er feiltolerant og også kan spare penger. kostnadene ved å kjøpe kommersiell programvare, eller unngå dem helt.
Som langsiktig praksis viser, er det ikke verdt å spare på maskinvare, siden den gjerrige betaler to ganger, og enda mye mer. Men igjen, god maskinvare er bare en anbefaling, og til slutt hva du skal kjøpe og for hvor mye avhenger av bedriftens evner og "grådigheten" til ledelsen. Dessuten bør ordet "grådighet" forstås i den gode betydningen av ordet, siden det er bedre å investere i maskinvare i det innledende stadiet, for ikke å ha alvorlige problemer med dens videre støtte og skalering, siden opprinnelig feil planlegging og for store innsparinger kan føre til høyere kostnader enn ved oppstart av prosjektet.
Så de første dataene for prosjektet:
det er et foretak som har bestemt seg for å opprette sin egen nettportal og bringe sine aktiviteter til Internett;
selskapet bestemte seg for å leie et stativ for å plassere utstyret i et godt datasenter sertifisert i henhold til Tier III-standarden;
selskapet bestemte seg for å ikke spare mye på maskinvare, og kjøpte derfor følgende utstyr med utvidede garantier og støtte:
Utstyrsliste
to fysiske Dell PowerEdge R640-servere som følger:
to Intel Xeon Gold 5120-prosessorer
512 Gb RAM
to SAS-disker i RAID1, for OS-installasjon
innebygd 4-ports 1G nettverkskort
to 2-ports 10G nettverkskort
en 2-ports FC HBA 16G.
2-kontrollers lagringssystem Dell MD3820f, koblet via FC 16G direkte til Dell-verter;
to andrenivåsvitsjer - Cisco WS-C2960RX-48FPS-L stablet;
to tredjenivåsvitsjer - Cisco WS-C3850-24T-E, stablet;
Rack, UPS, PDU, konsollservere leveres av datasenteret.
Som vi ser, har det eksisterende utstyret gode muligheter for horisontal og vertikal skalering, hvis bedriften er i stand til å konkurrere med andre selskaper med lignende profil på Internett, og begynner å tjene penger, som kan investeres i å utvide ressurser for ytterligere konkurranse. og resultatvekst.
Hvilket utstyr kan vi legge til hvis bedriften bestemmer seg for å øke ytelsen til dataklyngen vår:
vi har en stor reserve i antall porter på 2960X-svitsjene, noe som betyr at vi kan legge til flere maskinvareservere;
kjøpe to ekstra FC-svitsjer for å koble lagringssystemer og ekstra servere til dem;
eksisterende servere kan oppgraderes - legg til minne, bytt ut prosessorer med kraftigere, koble til et 10G-nettverk ved hjelp av eksisterende nettverkskort;
Du kan legge til flere diskhyller til lagringssystemet med den nødvendige typen disk - SAS, SATA eller SSD, avhengig av den planlagte belastningen;
etter å ha lagt til FC-svitsjer, kan du kjøpe et annet lagringssystem for å legge til enda mer diskkapasitet, og hvis du kjøper et spesielt alternativ for ekstern replikering, kan du sette opp datareplikering mellom lagringssystemer både innenfor samme datasenter og mellom datasentre ( men dette er allerede utenfor rammen av artikkelen);
Det finnes også tredjenivåsvitsjer – Cisco 3850, som kan brukes som en feiltolerant nettverkskjerne for høyhastighetsruting mellom interne nettverk. Dette vil være svært nyttig i fremtiden ettersom den interne infrastrukturen vokser. 3850 har også 10G-porter, som kan brukes senere når du oppgraderer nettverksutstyret til 10G-hastigheter.
Siden det nå ikke er noe sted uten virtualisering, vil vi selvfølgelig være med i trenden, spesielt siden dette er en utmerket måte å redusere kostnadene ved å kjøpe dyre servere for individuelle infrastrukturelementer (webservere, databaser osv.), som ikke alltid er det optimal brukes ved lav belastning, og det er nettopp dette som vil skje i begynnelsen av prosjektlanseringen.
I tillegg har virtualisering mange andre fordeler som kan være svært nyttige for oss: VM-feiltoleranse mot maskinvareserverfeil, Live migrering mellom maskinvareklyngenoder for vedlikehold, manuell eller automatisk lastfordeling mellom klyngenoder osv.
For maskinvaren kjøpt av bedriften foreslår utrullingen av en svært tilgjengelig VMware vSphere-klynge seg selv, men siden all programvare fra VMware er kjent for sine "heste"-prislapper, vil vi bruke helt gratis programvare for å administrere virtualisering - oVirt, på grunnlag av hvilket et velkjent, men allerede kommersielt produkt lages - rhev.
Programvare oVirt nødvendig å kombinere alle infrastrukturelementer til én helhet for å kunne jobbe med svært tilgjengelige virtuelle maskiner - disse er databaser, webapplikasjoner, proxy-servere, balansere, servere for innsamling av logger og analyser, etc., det vil si hva nettportalen til vår virksomhet består av.
For å oppsummere denne introduksjonen kan vi se frem til følgende artikler, som vil vise i praksis nøyaktig hvordan man distribuerer hele maskinvare- og programvareinfrastrukturen til en bedrift:
Liste over artikler
Del 1. Forbereder distribusjon av en oVirt 4.3-klynge.
Del 2. Installere og konfigurere oVirt 4.3 cluster.
Del 3. Sette opp en VyOS-klynge, organisere feiltolerant ekstern ruting.
Del 4. Sette opp en Cisco 3850-stack, organisere intranettruting.
Del 1. Forbereder distribusjon av en oVirt 4.3-klynge
Grunnleggende vertsoppsett
Installering og konfigurering av operativsystemet er det enkleste trinnet. Det er mange artikler om hvordan du installerer og konfigurerer operativsystemet riktig, så det er ingen vits i å prøve å gi ut noe eksklusivt om dette.
Så vi har to Dell PowerEdge R640-verter som vi må installere operativsystemet på og utføre foreløpige innstillinger for å bruke dem som hypervisorer for å kjøre virtuelle maskiner i oVirt 4.3-klyngen.
Siden vi planlegger å bruke den gratis ikke-kommersielle oVirt-programvaren, ble operativsystemet valgt for å distribuere verter 7.7 CentOS, selv om andre operativsystemer kan installeres på verter for oVirt:
en spesialbygg basert på RHEL, den såkalte. oVirt Node;
OS Oracle Linux, sommeren 2019 ble det kunngjort om å støtte arbeidet til oVirt med det.
Før du installerer operativsystemet, anbefales det:
konfigurere iDRAC-nettverksgrensesnittet på begge vertene;
oppdater BIOS og iDRAC-fastvaren til de nyeste versjonene;
konfigurere serverens systemprofil, fortrinnsvis i ytelsesmodus;
konfigurere RAID fra lokale disker (RAID1 anbefales) for å installere operativsystemet på serveren.
Deretter installerer vi operativsystemet på disken som ble opprettet tidligere via iDRAC - installasjonsprosessen er normal, det er ingen spesielle øyeblikk i den. Tilgang til serverkonsollen for å starte OS-installasjon kan også oppnås via iDRAC, selv om ingenting hindrer deg i å koble en skjerm, et tastatur og en mus direkte til serveren og installere OS fra en flash-stasjon.
Etter å ha installert operativsystemet, utfører vi de første innstillingene:
systemctl enable network.service
systemctl start network.service
systemctl status network.service
systemctl stop NetworkManager
systemctl disable NetworkManager
systemctl status NetworkManager
For å konfigurere operativsystemet til å begynne med, må du konfigurere et hvilket som helst nettverksgrensesnitt på serveren slik at du kan få tilgang til Internett for å oppdatere operativsystemet og installere de nødvendige programvarepakkene. Dette kan gjøres både under OS-installasjonsprosessen og etter den.
Før du starter arbeidet, her er et diagram på L2-nivå som vi til slutt bør komme til:
For nettverksinteraksjon av oVirt-verter og virtuelle maskiner med hverandre, samt for å administrere lagringssystemet vårt, er det nødvendig å konfigurere en stabel med Cisco 2960X-svitsjer.
Dell-verter har innebygde 4-ports nettverkskort, derfor er det tilrådelig å organisere tilkoblingen til Cisco 2960X ved hjelp av en feiltolerant nettverkstilkobling, ved å bruke en gruppering av fysiske nettverksporter i et logisk grensesnitt, og LACP-protokollen ( 802.3ad):
de to første portene på verten er konfigurert i bonding-modus og koblet til 2960X-svitsjen - dette logiske grensesnittet vil bli konfigurert bro med en adresse for vertsadministrasjon, overvåking, kommunikasjon med andre verter i oVirt-klyngen, vil den også bli brukt til Live migrering av virtuelle maskiner;
de to andre portene på verten er også konfigurert i bonding-modus og koblet til 2960X - på dette logiske grensesnittet ved hjelp av oVirt, vil det bli opprettet broer i fremtiden (i de tilsvarende VLAN-ene) som virtuelle maskiner vil bli koblet til.
begge nettverksportene, innenfor samme logiske grensesnitt, vil være aktive, dvs. trafikk over dem kan overføres samtidig, i balanseringsmodus.
nettverksinnstillingene på klyngenodene må være absolutt DE SAMME, med unntak av IP-adresser.
Grunnleggende bryterstabeloppsett 2960X og dens havner
Våre brytere må først være:
rack montert;
koblet til via to spesielle kabler med ønsket lengde, for eksempel CAB-STK-E-1M;
koblet til strømforsyningen;
koblet til administratorens arbeidsstasjon via konsollporten for deres første konfigurasjon.
Nødvendig veiledning for dette er tilgjengelig på offisiell side produsenten.
Etter å ha fullført trinnene ovenfor, konfigurerer vi bryterne.
Hva hver kommando betyr er ikke ment å bli dechiffrert innenfor rammen av denne artikkelen; om nødvendig kan all informasjon finnes uavhengig.
Målet vårt er å konfigurere bryterstakken så raskt som mulig og koble verter og lagringsadministrasjonsgrensesnitt til den.
1) Koble til hovedbryteren, gå til privilegert modus, gå deretter til konfigurasjonsmodus og foreta grunnleggende innstillinger.
Grunnleggende bryterkonfigurasjon:
enable
configure terminal
hostname 2960X
no service pad
service timestamps debug datetime msec
service timestamps log datetime localtime show-timezone msec
no service password-encryption
service sequence-numbers
switch 1 priority 15
switch 2 priority 14
stack-mac persistent timer 0
clock timezone MSK 3
vtp mode transparent
ip subnet-zero
vlan 17
name Management
vlan 32
name PROD
vlan 33
name Interconnect
vlan 34
name Test
vlan 35
name Dev
vlan 40
name Monitoring
spanning-tree mode rapid-pvst
spanning-tree etherchannel guard misconfig
spanning-tree portfast bpduguard default
spanning-tree extend system-id
spanning-tree vlan 1-40 root primary
spanning-tree loopguard default
vlan internal allocation policy ascending
port-channel load-balance src-dst-ip
errdisable recovery cause loopback
errdisable recovery cause bpduguard
errdisable recovery interval 60
line con 0
session-timeout 60
exec-timeout 60 0
logging synchronous
line vty 5 15
session-timeout 60
exec-timeout 60 0
logging synchronous
ip http server
ip http secure-server
no vstack
interface Vlan1
no ip address
shutdown
exit
Vi lagrer konfigurasjonen med kommandoen "wr mem" og start bryterstakken på nytt med kommandoen "lesse» på hovedbryteren 1.
2) Vi konfigurerer nettverksportene til svitsjen i tilgangsmodus i VLAN 17, for å koble administrasjonsgrensesnittene til lagringssystemer og iDRAC-servere.
3) Etter å ha lastet inn stabelen på nytt, kontroller at den fungerer som den skal:
Sjekke funksjonaliteten til stabelen:
2960X#show switch stack-ring speed
Stack Ring Speed : 20G
Stack Ring Configuration: Full
Stack Ring Protocol : FlexStack
2960X#show switch stack-ports
Switch # Port 1 Port 2
-------- ------ ------
1 Ok Ok
2 Ok Ok
2960X#show switch neighbors
Switch # Port 1 Port 2
-------- ------ ------
1 2 2
2 1 1
2960X#show switch detail
Switch/Stack Mac Address : 0cd0.f8e4.ХХХХ
Mac persistency wait time: Indefinite
H/W Current
Switch# Role Mac Address Priority Version State
----------------------------------------------------------
*1 Master 0cd0.f8e4.ХХХХ 15 4 Ready
2 Member 0029.c251.ХХХХ 14 4 Ready
Stack Port Status Neighbors
Switch# Port 1 Port 2 Port 1 Port 2
--------------------------------------------------------
1 Ok Ok 2 2
2 Ok Ok 1 1
4) Sette opp SSH-tilgang til 2960X-stakken
For å eksternt administrere stabelen via SSH, vil vi bruke IP 172.20.1.10 konfigurert for SVI (bytt virtuelt grensesnitt) VLAN17.
Selv om det er tilrådelig å bruke en dedikert dedikert port på svitsjen for administrasjonsformål, er dette et spørsmål om personlige preferanser og muligheter.
Konfigurere SSH-tilgang til en stabel med brytere:
ip default-gateway 172.20.1.2
interface vlan 17
ip address 172.20.1.10 255.255.255.0
hostname 2960X
ip domain-name hw.home-lab.ru
no ip domain-lookup
clock set 12:47:04 06 Dec 2019
crypto key generate rsa
ip ssh version 2
ip ssh time-out 90
line vty 0 4
session-timeout 60
exec-timeout 60 0
privilege level 15
logging synchronous
transport input ssh
line vty 5 15
session-timeout 60
exec-timeout 60 0
privilege level 15
logging synchronous
transport input ssh
aaa new-model
aaa authentication login default local
username cisco privilege 15 secret my_ssh_password
Sett opp et passord for å gå inn i privilegert modus:
enable secret *myenablepassword*
service password-encryption
Sette opp NTP:
ntp server 85.21.78.8 prefer
ntp server 89.221.207.113
ntp server 185.22.60.71
ntp server 192.36.143.130
ntp server 185.209.85.222
show ntp status
show ntp associations
show clock detail
5) Konfigurer logiske Etherchannel-grensesnitt og fysiske porter koblet til verter. For enkel konfigurasjon vil alle tilgjengelige VLAN være aktivert på alle logiske grensesnitt, men det anbefales generelt å konfigurere bare det som er nødvendig:
Etter å ha fullført innstillingene på stabelen 2960H og verter, starter vi nettverket på vertene og sjekker funksjonaliteten til det logiske grensesnittet.
på verten:
systemctl restart network
cat /proc/net/bonding/bond1
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2+3 (2)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
...
802.3ad info
LACP rate: fast
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
...
Slave Interface: em2
MII Status: up
Speed: 1000 Mbps
Duplex: full
...
Slave Interface: em3
MII Status: up
Speed: 1000 Mbps
Duplex: full
på bryterstabelen 2960H:
2960X#show lacp internal
Flags: S - Device is requesting Slow LACPDUs
F - Device is requesting Fast LACPDUs
A - Device is in Active mode P - Device is in Passive mode
Channel group 1
LACP port Admin Oper Port Port
Port Flags State Priority Key Key Number State
Gi1/0/1 SA bndl 32768 0x1 0x1 0x102 0x3D
Gi2/0/1 SA bndl 32768 0x1 0x1 0x202 0x3D
2960X#sh etherchannel summary
Flags: D - down P - bundled in port-channel
I - stand-alone s - suspended
H - Hot-standby (LACP only)
R - Layer3 S - Layer2
U - in use N - not in use, no aggregation
f - failed to allocate aggregator
M - not in use, minimum links not met
m - not in use, port not aggregated due to minimum links not met
u - unsuitable for bundling
w - waiting to be aggregated
d - default port
A - formed by Auto LAG
Number of channel-groups in use: 11
Number of aggregators: 11
Group Port-channel Protocol Ports
------+-------------+-----------+-----------------------------------------------
1 Po1(SU) LACP Gi1/0/1(P) Gi2/0/1(P)
Innledende konfigurasjon av nettverksgrensesnitt for å administrere klyngeressurser på verter Vert 1 и Vert 2
Konfigurering av det logiske grensesnittet BOND1 for administrasjon og dets fysiske grensesnitt på verter:
Etter å ha fullført innstillingene på stabelen 2960H og verter, starter vi nettverket på vertene og sjekker funksjonaliteten til det logiske grensesnittet.
Vi starter nettverket på nytt på vertene og sjekker deres synlighet for hverandre.
Dette fullfører konfigurasjonen av stabelen med Cisco 2960X-svitsjer, og hvis alt ble gjort riktig, så har vi nå nettverkstilkobling av alle infrastrukturelementer til hverandre på L2-nivå.
Sette opp Dell MD3820f lagringssystem
Før du starter arbeidet med å sette opp lagringssystemet, må det allerede være koblet til en stabel med Cisco-svitsjer 2960H kontrollgrensesnitt, så vel som til verter Vert 1 и Vert 2 via FC.
Det generelle diagrammet over hvordan lagringssystemer skal kobles til en stabel med brytere ble gitt i forrige kapittel.
Diagrammet for å koble lagringssystemet via FC til vertene skal se slik ut:
Under tilkoblingen må du skrive ned WWPN-adressene for FC HBA-vertene som er koblet til FC-portene på lagringssystemet - dette vil være nødvendig for senere å sette opp bindingen av verter til LUN-er på lagringssystemet.
Last ned og installer verktøyet for å administrere Dell MD3820f-lagringssystemet på administratorens arbeidsstasjon – PowerVault Modular Disk Storage Manager (MDSM).
Vi kobler til den via standard IP-adresser, og konfigurerer deretter adressene våre fra VLAN17, for å administrere kontrollere via TCP/IP:
Lagring 1:
ControllerA IP - 172.20.1.13, MASK - 255.255.255.0, Gateway - 172.20.1.2
ControllerB IP - 172.20.1.14, MASK - 255.255.255.0, Gateway - 172.20.1.2
Etter å ha satt opp adressene, gå til lagringsadministrasjonsgrensesnittet og angi et passord, still inn tiden, oppdater fastvaren for kontrollere og disker, om nødvendig, etc.
Hvordan dette gjøres er beskrevet i administrasjonsveiledning Oppbevaringssystem
Etter å ha fullført innstillingene ovenfor, trenger vi bare å gjøre noen få trinn:
Opprett en vertsgruppe – Vertsgruppe og legg til våre to Dell-verter til den.
Lag en diskgruppe og virtuelle disker (eller LUN-er) i den som vil bli presentert for verter.
Konfigurer presentasjonen av virtuelle disker (eller LUN-er) for verter.
Å legge til nye verter og binde verts FC-portidentifikatorer til dem gjøres gjennom menyen - Vertskartlegginger -> Definere -> Verter...
WWPN-adresser til FC HBA-verter finnes for eksempel i iDRAC-servere.
Som et resultat bør vi få noe slikt:
Å legge til en ny gruppe verter og binde verter til den gjøres gjennom menyen - Vertskartlegginger -> Definere -> Vertsgruppe...
For verter, velg OS-typen – Linux (DM-MP).
Etter å ha opprettet en vertsgruppe, gjennom fanen Lagrings- og kopieringstjenester, opprett en diskgruppe – Diskgruppe, med en type avhengig av kravene til feiltoleranse, for eksempel RAID10, og i den virtuelle disker av nødvendig størrelse:
Og til slutt er det siste stadiet presentasjonen av virtuelle disker (eller LUN-er) til verter.
For å gjøre dette, gjennom menyen - Vertskartlegginger -> Månekartlegging -> Legg til ... Vi knytter virtuelle disker til verter ved å tilordne numre til dem.
Alt skal se ut som dette skjermbildet:
Det er her vi fullfører oppsettet av lagringssystemet, og hvis alt ble gjort riktig, bør vertene se LUN-ene presentert for dem gjennom deres FC HBA.
La oss tvinge systemet til å oppdatere informasjon om tilkoblede disker:
ls -la /sys/class/scsi_host/
echo "- - -" > /sys/class/scsi_host/host[0-9]/scan
La oss se hvilke enheter som er synlige på serverne våre:
På verter kan du også konfigurere i tillegg fler, og selv om det kan gjøre dette selv når du installerer oVirt, er det bedre å sjekke riktig funksjon av MP på forhånd selv.
Som du kan se, er alle de tre virtuelle diskene på lagringssystemet synlige langs to baner. Dermed er alt det forberedende arbeidet fullført, noe som betyr at du kan gå videre til hoveddelen - å sette opp oVirt-klyngen, som vil bli diskutert i neste artikkel.