Robot nei data center: come può essere utile l'intelligenza artificiale?

Nel processo di trasformazione digitale dell’economia, l’umanità deve costruire sempre più centri di elaborazione dati. Anche i data center stessi devono essere trasformati: le questioni relative alla tolleranza ai guasti e all’efficienza energetica sono ora più importanti che mai. Le strutture consumano enormi quantità di elettricità e i guasti delle infrastrutture IT critiche situate al loro interno sono costosi per le aziende. Le tecnologie di intelligenza artificiale e machine learning vengono in aiuto degli ingegneri: negli ultimi anni sono state sempre più utilizzate per creare data center più avanzati. Questo approccio aumenta la disponibilità delle strutture, riduce il numero di guasti e riduce i costi operativi.

Come funziona?

Le tecnologie di intelligenza artificiale e apprendimento automatico vengono utilizzate per automatizzare il processo decisionale operativo sulla base dei dati raccolti da vari sensori. Di norma, tali strumenti sono integrati con i sistemi di classe DCIM (Data Center Infrastructure Management) e consentono di prevedere il verificarsi di situazioni di emergenza, nonché di ottimizzare il funzionamento delle apparecchiature IT, dell'infrastruttura ingegneristica e persino del personale di servizio. Molto spesso, i produttori offrono servizi cloud ai proprietari di data center che accumulano ed elaborano i dati di molti clienti. Tali sistemi generalizzano l'esperienza di gestione di diversi data center e quindi funzionano meglio dei prodotti locali.

Gestione dell'infrastruttura informatica

HPE promuove il servizio di analisi predittiva del cloud InfoSight per gestire l’infrastruttura IT basata sui sistemi di storage Nimble Storage e HPE 3PAR StoreServ, sui server HPE ProLiant DL/ML/BL, sui sistemi rack HPE Apollo e sulla piattaforma HPE Synergy. InfoSight analizza le letture dei sensori installati nelle apparecchiature, elaborando più di un milione di eventi al secondo e apprendendo costantemente. Il servizio non solo rileva i guasti, ma prevede anche possibili problemi con l'infrastruttura IT (guasti delle apparecchiature, esaurimento della capacità di archiviazione, riduzione delle prestazioni delle macchine virtuali, ecc.) ancor prima che si verifichino. Per l'analisi predittiva, il software VoltDB viene distribuito nel cloud, utilizzando modelli di previsione autoregressivi e metodi probabilistici. Una soluzione simile è disponibile per i sistemi di storage ibridi di Tegile Systems: il servizio cloud IntelliCare Cloud Analytics monitora lo stato di salute, le prestazioni e l'utilizzo delle risorse dei dispositivi. Le tecnologie di intelligenza artificiale e machine learning vengono utilizzate anche da Dell EMC nelle sue soluzioni di elaborazione ad alte prestazioni. Esistono molti esempi simili; quasi tutti i principali produttori di apparecchiature informatiche e sistemi di archiviazione dati stanno seguendo questa strada.

Alimentazione e raffreddamento

Un altro ambito di applicazione dell’AI nei data center è legato alla gestione delle infrastrutture ingegneristiche e, soprattutto, del raffreddamento, la cui quota sul consumo energetico totale di una struttura può superare il 30%. Google è stato uno dei primi a pensare al raffreddamento intelligente: nel 2016, insieme a DeepMind, lo ha sviluppato sistema di intelligenza artificiale per il monitoraggio dei singoli componenti del data center, riducendo del 40% i costi energetici per il condizionamento dell'aria. Inizialmente forniva solo suggerimenti al personale, ma successivamente è stato migliorato e ora può controllare autonomamente il raffreddamento delle sale macchine. Una rete neurale distribuita nel cloud elabora i dati di migliaia di sensori interni ed esterni: prende decisioni tenendo conto del carico sui server, della temperatura, della velocità del vento all'esterno e di molti altri parametri. Le istruzioni offerte dal sistema cloud vengono inviate al data center e lì vengono nuovamente controllate in termini di sicurezza dai sistemi locali, mentre il personale può sempre disattivare la modalità automatica e iniziare a gestire manualmente il raffreddamento. Nlyte Software insieme al team IBM Watson hanno creato decisione, che raccoglie dati su temperatura e umidità, consumo energetico e carico delle apparecchiature IT. Consente di ottimizzare il funzionamento dei sottosistemi di ingegneria e non richiede la connessione all'infrastruttura cloud del produttore: se necessario, la soluzione può essere implementata direttamente nel data center.

Altri esempi

Sul mercato sono presenti numerose soluzioni intelligenti innovative per i data center e ne appaiono costantemente di nuove. Wave2Wave ha realizzato un sistema robotizzato di commutazione di cavi in ​​fibra ottica per organizzare automaticamente le connessioni incrociate nei nodi di scambio del traffico (Meet Me Rooms) all'interno del data center. Il sistema sviluppato da ROOT Data Center e LitBit utilizza l'intelligenza artificiale per monitorare i gruppi elettrogeni diesel di backup e Romonet ha creato una soluzione software di autoapprendimento per l'ottimizzazione dell'infrastruttura. Le soluzioni create da Vigilent utilizzano l'apprendimento automatico per prevedere i guasti e ottimizzare le condizioni di temperatura nei locali del data center. L’introduzione dell’intelligenza artificiale, dell’apprendimento automatico e di altre tecnologie innovative per l’automazione dei processi nei data center è iniziata relativamente di recente, ma oggi questa è una delle aree più promettenti di sviluppo del settore. I data center di oggi sono diventati troppo grandi e complessi per essere gestiti manualmente in modo efficace.

Fonte: habr.com

Aggiungi un commento