HPE ontwikkelt AI om energie-efficiëntie en duurzaamheid van datacenters te verbeteren

20 november 2019

Hewlett Packard Enter­prise (HPE) kondigt vandaag een AI Ops R&D‑samenwerking aan met het National Renewable Energy Labo­ra­tory (NREL) van het Ameri­kaanse Minis­terie van Energie om tech­no­lo­gieën op basis van Arti­fi­cial Intel­li­gence (AI) en Machine Learning (ML) te ontwik­kelen. Op deze manier wil men de opera­ti­o­nele effi­ci­ëntie in data­cen­ters, met inbegrip van de veer­kracht en het ener­gie­ge­bruik, auto­ma­ti­seren en verbeteren.

Het project maakt deel uit van een drie jaar durende samen­wer­king die moni­to­ring en voor­spel­lende analyses intro­du­ceert voor energie- en koel­sys­temen in NREL’s Energy Systems Inte­gra­tion Facility (ESIF) HPC Data Center.

HPE en NREL maken gebruik van meer dan vijf jaar aan histo­ri­sche gegevens, die in totaal meer dan 16 terabytes aan gegevens bevatten, verzameld via sensoren in NREL’s super­com­pu­ters, Peregrine en Eagle, en de systee­m­om­ge­ving. Hiermee wil men modellen ontwik­kelen voor het detec­teren van afwij­kingen die problemen kunnen voor­spellen en waarmee men tevens problemen wil voorkomen nog voordat ze zich voordoen.  

De samen­wer­king zal zich ook richten op het toekom­stige water- en ener­gie­ver­bruik in data­cen­ters, die alleen al in de VS in 2020 ongeveer 73 miljard kWh en 174 miljard ‘gallons’ water zullen bereiken. HPE en NREL zullen zich richten op het monitoren van het ener­gie­ver­bruik om de energie-effi­ci­ëntie en duur­zaam­heid te opti­ma­li­seren, zoals gemeten aan de hand van belang­rijke meet­ge­ge­vens zoals Power Usage Effec­ti­ve­ness (PUE), Water Usage Effec­ti­ve­ness (WUE), en Carbon Usage Effec­ti­ve­ness (CUE).

Eerste resul­taten op basis van modellen die zijn gebaseerd op histo­ri­sche gegevens hebben met succes gebeur­te­nissen voorspeld of geïden­ti­fi­ceerd die zich eerder in het data­center van NREL hebben voor­ge­daan, wat de belofte van het gebruik van voor­spel­lende analyses in toekom­stige data­cen­ters aantoont.

Het project zal gebruik maken van open source software en bibli­o­theken zoals Tensor­Flow, NumPy en Sci-kit om algo­ritmes voor machinaal leren te ontwik­kelen. Het project zal zich richten op de volgende belang­rijke gebieden:

  • Moni­to­ring: verza­melen, verwerken en analy­seren van grote hoeveel­heden IT en faci­li­taire tele­me­trie uit verschil­lende bronnen alvorens algo­ritmes toe te passen op gegevens in real-time.
  • Analytics: big data analytics en machine learning zullen worden gebruikt om data te analy­seren van verschil­lende tools en apparaten die de data­cen­ter­fa­ci­li­teit beslaan.
  • Beheer: algo­ritmes zullen worden toegepast om machines in staat te stellen om problemen autonoom en intel­li­gent op te lossen, herha­lende taken te auto­ma­ti­seren en voor­spel­lend onderhoud uit te voeren aan zowel de IT- als de datacenterfaciliteit.
  • Data­center operaties: AI Ops zal evolueren naar een vali­da­tie­tool voor continue inte­gratie (CI) en continue imple­men­tatie (CD) van de belang­rijkste IT-functies die de moderne data­cen­ter­fa­ci­li­teit omvatten.

Pin It on Pinterest

Share This