Come compattare l'archiviazione dei backup nell'object storage fino al 90%

I nostri clienti turchi ci hanno chiesto di configurare correttamente il backup per il loro data center. Stiamo realizzando progetti simili in Russia, ma qui la storia riguardava più la ricerca del modo migliore per farlo.

Premesso: esiste uno storage S3 locale, esiste Veritas NetBackup, che ha acquisito nuove funzionalità estese per lo spostamento dei dati nell'archiviazione di oggetti, ora con supporto per la deduplicazione, e c'è un problema con lo spazio libero in questo storage locale.

Compito: fare tutto in modo che il processo di archiviazione delle copie di backup sia rapido ed economico.

In realtà, prima di questo, tutto in S3 era semplicemente file, ovvero calchi completi delle macchine critiche del data center. Cioè non è molto ottimizzato, ma all’inizio ha funzionato tutto. Ora è il momento di capirlo e farlo bene.

L'immagine mostra a cosa siamo arrivati:

Come compattare l'archiviazione dei backup nell'object storage fino al 90%

Come puoi vedere, il primo backup è stato eseguito lentamente (70 Mb/s), mentre i successivi backup degli stessi sistemi sono stati molto più veloci.

In realtà, più avanti ci sono alcuni dettagli in più su quali funzionalità sono presenti.

Registri di backup per coloro che sono pronti a leggere mezza pagina di dumpCompleto con nuova scansione
18 dic 2018 12:09:43 — Informazioni L'acceleratore bpbkar (pid=4452) ha inviato 14883996160 byte su 14883994624 byte al server, ottimizzazione 0.0%
18 dicembre 2018 12:10:07 - Informazioni NBCC (pid=23002) StorageServer=PureDisk_rhceph_rawd:s3.cloud.ngn.com.tr; Report=Statistiche PDDO (flusso multi-thread utilizzato) per (NBCC): scansionato: 14570817 KB, CR inviato: 1760761 KB, CR inviato su FC: 0 KB, deduplicazione: 87.9%, cache disabilitata

Lunga
18 dic 2018 12:13:18 — Informazioni L'acceleratore bpbkar (pid=2864) ha inviato 181675008 byte su 14884060160 byte al server, ottimizzazione 98.8%
18 dicembre 2018 12:13:40 - Informazioni NBCC (pid=23527) StorageServer=PureDisk_rhceph_rawd:s3.cloud.ngn.com.tr; Report=Statistiche PDDO per (NBCC): scansionato: 14569706 KB, CR inviato: 45145 KB, CR inviato su FC: 0 KB, deduplicazione: 99.7%, cache disabilitata

Incrementale
18 dic 2018 12:15:32 — Informazioni L'acceleratore bpbkar (pid=792) ha inviato 9970688 byte su 14726108160 byte al server, ottimizzazione 99.9%
18 dicembre 2018 12:15:53 - Informazioni NBCC (pid=23656) StorageServer=PureDisk_rhceph_rawd:s3.cloud.ngn.com.tr; Report=Statistiche PDDO per (NBCC): scansionato: 14383788 KB, CR inviato: 15700 KB, CR inviato su FC: 0 KB, deduplicazione: 99.9%, cache disabilitata

Lunga
18 dic 2018 12:18:02 — Informazioni L'acceleratore bpbkar (pid=3496) ha inviato 171746816 byte su 14884093952 byte al server, ottimizzazione 98.8%
18 dicembre 2018 12:18:24 - Informazioni NBCC (pid=23878) StorageServer=PureDisk_rhceph_rawd:s3.cloud.ngn.com.tr; Report=Statistiche PDDO per (NBCC): scansionato: 14569739 KB, CR inviato: 34120 KB, CR inviato su FC: 0 KB, deduplicazione: 99.8%, cache disabilitata

Qual è il problema

I clienti desiderano eseguire backup il più spesso possibile e archiviarli nel modo più economico possibile. È meglio archiviarli a buon mercato in archivi di oggetti come S3, perché sono i più economici in termini di costo del servizio per megabyte da cui è possibile ripristinare un backup in un tempo ragionevole. Quando c'è molto backup, non diventa molto economico, perché la maggior parte dello spazio di archiviazione è occupato da copie degli stessi dati. Nel caso di HaaS dei colleghi turchi, lo storage può essere densificato di circa l’80-90%. È chiaro che questo riguarda specificamente le loro specificità, ma conterei sicuramente su almeno il 50% del nonno.

Per risolvere il problema, i principali fornitori hanno da tempo realizzato gateway su Amazon S3. Tutti i loro metodi sono compatibili con S3 locale purché supportino l'API Amazon. Nel data center turco, il backup viene effettuato sul nostro S3, così come nel "Compressore" T-III in Russia, poiché questo schema di lavoro ha funzionato bene per noi.

E il nostro S3 è completamente compatibile con i metodi di backup di Amazon S3. Cioè, tutti gli strumenti di backup che supportano questi metodi ti consentono di copiare tutto su tale spazio di archiviazione "pronto all'uso".

Veritas NetBackup ha aggiunto la funzionalità CloudCatalyst:

Come compattare l'archiviazione dei backup nell'object storage fino al 90%

Cioè, tra le macchine di cui è necessario eseguire il backup e il gateway, c'è un server Linux intermedio attraverso il quale passa il traffico di backup dagli agenti SRK e viene deduplicato al volo prima di trasferirlo su S3. Se prima c'erano 30 backup da 20 GB con compressione, ora (a causa della somiglianza delle macchine) il loro volume è diventato inferiore del 90%. Il motore di deduplicazione viene utilizzato come quando si archivia su dischi normali utilizzando Netbackup.

Ecco cosa succede prima del server intermedio:

Come compattare l'archiviazione dei backup nell'object storage fino al 90%

Abbiamo testato e siamo giunti alla conclusione che, una volta implementato nei nostri data center, questo consente di risparmiare spazio nello storage S3 per noi e per i clienti. Come proprietari di data center commerciali, ovviamente, addebitiamo costi in base al volume occupato, ma è comunque molto redditizio anche per noi, perché iniziamo a guadagnare su posti più scalabili nel software e non sul noleggio dell'hardware. Bene, e questa è una riduzione dei costi interni.

logs228 Lavori (0 In coda 0 Attivi 0 In attesa di nuovo tentativo 0 Sospesi 0 Incompleti 228 Completati — 13 selezionati)
(Filtro applicato [13])

ID lavoro Tipo Stato Dettagli stato Stato Policy lavoro Pianificazione lavoro Client Media Server Ora di inizio Tempo trascorso Ora di fine Unità di archiviazione Tentativo Operazione Kilobyte File Percorso % Completato (stimato) Proprietario PID lavoro Copia ID lavoro principale KB/sec Attivo Avvio attivo Trascorso Robot Vault Profilo Sessione ID supporto da espellere Movimento dati fuori host Tipo Master Priorità Velocità di deduplicazione Ottimizzazione acceleratore di trasporto Istanza o host di condivisione database
— 1358 Snapshot eseguito 0 VMware — NGNCloudADC NBCC 18 dic 2018 12:16:19 00:02:18 18 dic 2018 12:18:37 STU_DP_S3_****backup 1 root al 100% 1358 18 dic 2018 12 :16:27 PM 00:02:10 Disco di ripristino istantaneo Standard WIN-*********** 0
1360 Backup eseguito 0 VMware completo NGNCloudADC NBCC 18 dic 2018 12:16:48 00:01:39 18 dic 2018 12:18:27 STU_DP_S3_****backup 1 14,535,248 149654 100% 23858 root 1358 335,098 18 2018 dicembre , 12 16:48:00 01:39:0 Disco di ripristino istantaneo Standard WIN-*********** 99.8 99% XNUMX%
1352 Snapshot eseguito 0 VMware - NGNCloudADC NBCC 18 dic 2018 12:14:04 00:02:01 18 dic 2018 12:16:05 STU_DP_S3_****backup 1 root al 100% 1352 18 dic 2018 12: 14:14 PM 00:01:51 Disco di ripristino istantaneo Standard WIN-************ 0
1354 Backup eseguito 0 VMware Incrementale NGNCloudADC NBCC 18 dic 2018 12:14:34 00:01:21 18 dic 2018 12:15:55 STU_DP_S3___****backup 1 14,380,965 147 100% 23617 root 1352 500,817 ,18 2018 dicembre , 12 14:34:00 01:21:0 Disco di ripristino istantaneo Standard WIN-*********** 99.9 100% XNUMX%
1347 Snapshot eseguito 0 VMware - NGNCloudADC NBCC 18 dic 2018 12:11:45 00:02:08 18 dic 2018 12:13:53 STU_DP_S3_****backup 1 root al 100% 1347 18 dic 2018 12: 11:45 PM 00:02:08 Disco di ripristino istantaneo Standard WIN-************ 0
1349 Backup eseguito 0 VMware completo NGNCloudADC NBCC 18 dic 2018 12:12:02 00:01:41 18 dic 2018 12:13:43 STU_DP_S3_****backup 1 14,535,215 149653 100% 23508 root 1347 316,319 18 2018 dicembre , 12 12:02:00 01:41:0 Disco di ripristino istantaneo Standard WIN-*********** 99.7 99% XNUMX%
1341 Snapshot eseguito 0 VMware - NGNCloudADC NBCC 18 dic 2018 12:05:28 00:04:53 18 dic 2018 12:10:21 STU_DP_S3_****backup 1 root al 100% 1341 18 dic 2018 12: 05:28 PM 00:04:53 Disco di ripristino istantaneo Standard WIN-************ 0
1342 Backup eseguito 0 VMware Full_Rescan NGNCloudADC NBCC 18 dic 2018 12:05:47 00:04:24 18 dic 2018 12:10:11 STU_DP_S3_****backup 1 14,535,151 149653 100% 22999 root 1341 70,380 18 2018 dic 12, 05 47:00:04 24:0:87.9 Disco di ripristino istantaneo Standard WIN-*********** 0 XNUMX% XNUMX%

1339 Snapshot eseguito 150 VMware - NGNCloudADC NBCC 18 dic 2018 11:05:46 00:00:53 18 dic 2018 11:06:39 STU_DP_S3_****backup 1 root al 100% 1339 18 dic 2018 11: 05:46 00:00:53 Disco di ripristino istantaneo Standard WIN-*********** 0
1327 Istantanea completata 0 VMware - *******.********.cloud NBCC 17 dicembre 2018 12:54:42 05:51:38 17 dicembre 2018 6:46:20 STU_DP_S3_****backup 1 100% root 1327 17 dic 2018 12:54:42 05:51:38 Disco di ripristino istantaneo Standard WIN-*********** 0
1328 Backup eseguito 0 VMware completo *******.********.cloud NBCC 17 dicembre 2018 12:55:10 05:29:21 17 dicembre 2018 6:24:31 STU_DP_S3_****backup 1 222,602,719 258932 100% 12856 root 1327 11,326 17 dic 2018 12:55:10 05:29:21 Disco di ripristino istantaneo Standard WIN-*********** 0 87.9% 0%
1136 Istantanea completata 0 VMware - *******.********.cloud NBCC 14 dicembre 2018 4:48:22 04:05:16 14 dicembre 2018 8:53:38 STU_DP_S3_****backup 1 100% root 1136 14 dic 2018 4:48:22 04:05:16 Disco di ripristino istantaneo Standard WIN-*********** 0
1140 Backup eseguito 0 VMware Full_Scan *******.********.cloud NBCC 14 dicembre 2018 4:49:14 03:49:58 14 dicembre 2018 8:39:12 STU_DP_S3_****backup 1 217,631,332 255465 100% 26438 root 1136 15,963 14 dic 2018 4:49:14 03:49:58 Disco di ripristino istantaneo Standard WIN-*********** 0 45.2% 0%

L'acceleratore ti consente di ridurre il traffico degli agenti, perché Vengono trasmesse solo le modifiche dei dati, ovvero anche i backup completi non vengono caricati interamente, poiché il media server raccoglie i successivi backup completi dai backup incrementali.

Il server intermedio dispone di un proprio spazio di archiviazione, in cui scrive una "cache" di dati e mantiene un database per la deduplicazione.

L'architettura completa è simile alla seguente:

  1. Il server master gestisce la configurazione, gli aggiornamenti, ecc. e si trova nel cloud.
  2. Il server multimediale (macchina *nix intermedia) dovrebbe essere posizionato il più vicino possibile ai sistemi ridondanti in termini di accessibilità alla rete. Qui viene eseguita la deduplicazione dei backup da tutte le macchine riservate.
  3. Sulle macchine sottoposte a backup sono presenti agenti che generalmente inviano al media server solo ciò che non è nel suo archivio.

Tutto inizia con una scansione completa: si tratta di un backup completo a tutti gli effetti. A questo punto il media server prende il tutto, lo deduplica e lo trasferisce su S3. La velocità verso il server multimediale è bassa, ma da esso è più alta. La limitazione principale è la potenza di calcolo del server.

I seguenti backup sono completi dal punto di vista di tutti i sistemi, ma in realtà sono qualcosa come backup completi sintetici. Ciò significa che il trasferimento e la registrazione effettivi sul media server avvengono solo di quei blocchi di dati che non sono ancora stati rilevati prima nei backup delle VM. E solo i blocchi di dati il ​​cui hash non si trova nel database di deduplicazione del media server vengono trasferiti e registrati in S3. In parole più semplici, si tratta di qualcosa che non si è mai visto prima in nessun backup di una singola VM.

Durante il ripristino, il media server richiede gli oggetti deduplicati necessari da S3, li reidrata e li trasferisce agli agenti IRB, ad es. è necessario tenere conto del volume di traffico durante il ripristino, che sarà pari al volume effettivo dei dati da ripristinare.

Ecco come appare:

Come compattare l'archiviazione dei backup nell'object storage fino al 90%

Ed ecco un altro pezzo di registro169 Lavori (0 In coda 0 Attivi 0 In attesa di nuovo tentativo 0 Sospesi 0 Incompleti 169 Completati — 1 selezionati)

ID lavoro Tipo Stato Dettagli stato Stato Policy lavoro Pianificazione lavoro Client Media Server Ora di inizio Tempo trascorso Ora di fine Unità di archiviazione Tentativo Operazione Kilobyte File Percorso % Completato (stimato) Proprietario PID lavoro Copia ID lavoro principale KB/sec Attivo Avvio attivo Trascorso Robot Vault Profilo Sessione ID supporto da espellere Movimento dati fuori host Tipo Master Priorità Velocità di deduplicazione Ottimizzazione acceleratore di trasporto Istanza o host di condivisione database
- 1372 Ripristino eseguito 0 NBPR01 NBCC 19 dic 2018 1:05:58 00:04:32 19 dic 2018 1:10:30 1 14,380,577 1 100% 8548 ROOT 1372 70,567 19 dic 2018 1:06 :00 PM 00:04:30 WIN-************ 90000

L'integrità dei dati è garantita dalla protezione dello stesso S3: c'è una buona ridondanza per proteggersi da guasti hardware come un mandrino del disco rigido guasto.

Il server multimediale necessita di 4 TB di cache: questa è la dimensione minima consigliata da Veritas. Di più è meglio, ma questo è quello che abbiamo fatto.

risultato

Quando un partner ha inserito 3 GB nel nostro S20, abbiamo archiviato 60 GB, poiché forniamo la tripla prenotazione geografica dei dati. Adesso c'è molto meno traffico, il che è positivo sia per il canale che per le tariffe di stoccaggio.

In questo caso, i percorsi sono chiusi oltre la "grande Internet", ma puoi indirizzare il traffico tramite VPN L2 su Internet, ma è meglio installare il server multimediale prima dell'ingresso del provider.

Se sei interessato a conoscere queste funzionalità nei nostri data center russi o hai domande sull'implementazione a casa, chiedi nei commenti o via email [email protected].

Fonte: habr.com

Aggiungi un commento