HPE ontwikkelt AI om energie-efficiëntie en duurzaamheid van datacenters te verbeteren

20 november 2019

Hewlett Packard Enterprise (HPE) kondigt vandaag een AI Ops R&D-samenwerking aan met het National Renewable Energy Laboratory (NREL) van het Amerikaanse Ministerie van Energie om technologieën op basis van Artificial Intelligence (AI) en Machine Learning (ML) te ontwikkelen. Op deze manier wil men de operationele efficiëntie in datacenters, met inbegrip van de veerkracht en het energiegebruik, automatiseren en verbeteren.

Het project maakt deel uit van een drie jaar durende samenwerking die monitoring en voorspellende analyses introduceert voor energie- en koelsystemen in NREL’s Energy Systems Integration Facility (ESIF) HPC Data Center.

HPE en NREL maken gebruik van meer dan vijf jaar aan historische gegevens, die in totaal meer dan 16 terabytes aan gegevens bevatten, verzameld via sensoren in NREL’s supercomputers, Peregrine en Eagle, en de systeemomgeving. Hiermee wil men modellen ontwikkelen voor het detecteren van afwijkingen die problemen kunnen voorspellen en waarmee men tevens problemen wil voorkomen nog voordat ze zich voordoen.  

De samenwerking zal zich ook richten op het toekomstige water- en energieverbruik in datacenters, die alleen al in de VS in 2020 ongeveer 73 miljard kWh en 174 miljard ‘gallons’ water zullen bereiken. HPE en NREL zullen zich richten op het monitoren van het energieverbruik om de energie-efficiëntie en duurzaamheid te optimaliseren, zoals gemeten aan de hand van belangrijke meetgegevens zoals Power Usage Effectiveness (PUE), Water Usage Effectiveness (WUE), en Carbon Usage Effectiveness (CUE).

Eerste resultaten op basis van modellen die zijn gebaseerd op historische gegevens hebben met succes gebeurtenissen voorspeld of geïdentificeerd die zich eerder in het datacenter van NREL hebben voorgedaan, wat de belofte van het gebruik van voorspellende analyses in toekomstige datacenters aantoont.

Het project zal gebruik maken van open source software en bibliotheken zoals TensorFlow, NumPy en Sci-kit om algoritmes voor machinaal leren te ontwikkelen. Het project zal zich richten op de volgende belangrijke gebieden:

  • Monitoring: verzamelen, verwerken en analyseren van grote hoeveelheden IT en facilitaire telemetrie uit verschillende bronnen alvorens algoritmes toe te passen op gegevens in real-time.
  • Analytics: big data analytics en machine learning zullen worden gebruikt om data te analyseren van verschillende tools en apparaten die de datacenterfaciliteit beslaan.
  • Beheer: algoritmes zullen worden toegepast om machines in staat te stellen om problemen autonoom en intelligent op te lossen, herhalende taken te automatiseren en voorspellend onderhoud uit te voeren aan zowel de IT- als de datacenterfaciliteit.
  • Datacenter operaties: AI Ops zal evolueren naar een validatietool voor continue integratie (CI) en continue implementatie (CD) van de belangrijkste IT-functies die de moderne datacenterfaciliteit omvatten.
Robbert Hoeffnagel

Robbert Hoeffnagel

Editor and consultant @ Belgium Cloud, DatacenterWorks, InfosecurityMagazine.be, Green IT Amsterdam and Mepax

Pin It on Pinterest

Share This