SAN JOSE – Hewlett Packard Enterprise (HPE) ha annunciato la collaborazione a un progetto di ricerca e sviluppo su AI Ops in collaborazione con il National Renewable Energy Laboratory (NREL) del Dipartimento di Energia statunitense (DoE) finalizzato allo sviluppo di tecnologie di intelligenza artificiale (AI) e machine learning (ML) per l’automazione e il perfezionamento dell’efficienza operativa – compresi resilienza e consumi energetici – nei data center per l’era dell’exascale.
L’iniziativa rientra nella mission del NREL quale leader mondiale nelle tecnologie per l’efficienza energetica e le energie rinnovabili, per la creazione e implementazione di nuovi approcci alla riduzione dei consumi di energia e all’abbattimento dei costi operativi.
Il progetto rientra nell’ambito di una collaborazione triennale che prevede l’introduzione di tecniche di monitoraggio e analytics predittive all’interno dei sistemi di alimentazione e raffreddamento dell’HPC Data Center situato presso l’Energy Systems Integration Facility (ESIF) del NREL.
HPE e NREL dispongono di dati raccolti in oltre cinque anni per un totale
di più di 16 terabyte raccolti dai sensori presenti nei supercomputer NREL, Peregrine ed Eagle, e nella propria facility per addestrare i modelli di rilevamento delle anomalie allo scopo di prevedere e prevenire i problemi prima che si verifichino.
La collaborazione affronterà anche il futuro dei consumi di acqua ed energia all’interno dei data center, consumi che solamente negli Stati Uniti raggiungeranno rispettivamente i 73 miliardi di kWh e 174 miliardi di galloni (circa 660 miliardi di litri d’acqua) entro il 2020. HPE e NREL si concentreranno sul monitoraggio dei consumi energetici per ottimizzare l’efficienza e la sostenibilità misurata da parametri come PUE (Power Usage Effectiveness), WUE (Water Usage Effectiveness) e CUE (Carbon Usage Effectiveness).
I primi risultati ottenuti dai modelli basati sui dati storici sono riusciti a prevedere o identificare con successo eventi già accaduti in passato all’interno del data center NREL, dimostrando quanto possa essere promettente l’impiego dell’analytics predittiva nei data center del futuro.
Il progetto AI Ops è scaturito dal lavoro di ricerca e sviluppo di HPE nell’ambito di PathForward, un programma sostenuto dal Dipartimento statunitense dell’Energia per accelerare la roadmap tecnologica nazionale in direzione dell’exascale computing, che rappresenta il prossimo grande balzo nel campo dei supercomputer. HPE si è resa conto della necessità di sviluppare capacità di automazione e AI per poter gestire e ottimizzare gli ambienti data center exascale. Applicare operazioni basate su AI a un supercomputer exascale – che lavorerà a velocità un migliaio di volte superiori rispetto a quelle dei sistemi attuali – permetterà di rendere le operazioni efficienti dal punto di vista energetico e migliorare le caratteristiche di resilienza e affidabilità per mezzo di capacità automatiche e smart.
“Abbiamo la passione di sviluppare nuove tecnologie che impatteranno sulla prossima era dell’innovazione con l’exascale computing e le relative esigenze operative”, ha dichiarato Mike Vildibill, vice president dell’Advanced Technologies Group di HPE. “Siamo convinti che il nostro percorso verso lo sviluppo e i test AI Ops con NREL, uno dei nostri partner storici più innovativi, permetterà al settore di creare e mantenere data center per supercomputing più efficienti e smart continuando a scalare potenza e prestazioni”.
“La nostra collaborazione tocca la ricerca nelle aree della gestione dei dati, della data analytics e dell’ottimizzazione AI/ML per gli interventi sia manuali sia autonomi nelle operazioni dei data center”, ha commentato Kristin Munch, manager del Data, Analysis and Visualization Group del National Renewable Energy Laboratory (NREL). “Siamo entusiasti di collaborare con HPE in questa iniziativa pluriennale e contiamo di poter creare le condizioni per un data center smart e avanzato dopo averne dimostrato le tecniche nel nostro data center attuale”.
Il progetto si avvarrà di software e librerie open source come TensorFlow, NumPy e Sci-kit per sviluppare algoritmi di machine learning. Il progetto si concentrerà sulle seguenti aree:
• Monitoraggio: Raccolta, elaborazione e analisi di enormi volumi di dati relativi a IT e facility da fonti diverse prima dell’applicazione degli algoritmi ai dati in tempo reale
• Analytics: Tecniche di big data analytics e machine learning saranno utilizzate per analizzare i dati da diversi tool e dispositivi all’interno di tutto il data center
• Controllo: Saranno applicati algoritmi per permettere alle macchine di risolvere i problemi autonomamente oltre che per automatizzare intelligentemente attività ripetitive ed effettuare manutenzione predittiva sia sull’IT sia nella struttura del data center
• Operazioni di data center: AI Ops evolverà per diventare un tool di convalida per le attività CI (Continuous Integration) e CD (Continuous Deployment) delle funzioni IT base presenti nella struttura di un data center moderno
HPE prevede di dimostrare ulteriori funzionalità in futuro con l’ampliamento del sistema HPE High Performance Cluster Management (HPCM) in maniera tale da poter effettuare tutte le procedure di provisioning, gestione e monitoraggio di cluster scalabili fino a 100.000 nodi a velocità superiori. Altri test previsti comprendono l’esplorazione dell’integrazione di HPE InfoSight, un tool di gestione AI-driven basato su cloud che monitora, raccoglie e analizza dati relativi all’infrastruttura IT. HPE InfoSight viene adoperato per prevedere e prevenire probabili eventi mantenendo lo stato di salute complessivo delle prestazioni di un server.