Digital twins bieden oplossing voor opleiden van datacentermedewerkers

9 november 2021

De arbeids­markt voor data­center-personeel is over­spannen. Veel bedrijven kunnen nauwe­lijks personeel vinden – of vast­houden. Tege­lij­ker­tijd is er geen reguliere opleiding die data­center-technici opleidt. Kunnen Digital twins hier een rol spelen? Jos Bijvoet denkt van wel. Maar dan moeten we als data­center-sector wel afstappen van de aanpak waarbij we alleen met ‘proven tech­no­logy’ willen werken.

In de westerse wereld hechten wij waarde aan voor­spel­lingen. Ik bedoel dan niet die van de Tarot­kaarten, waar­zeg­sters of uitspraken uit de glazen bol. Ik bedoel vooral de voor­spel­ling van het weer. Elke ochtend, eventueel aangevuld met file-info, is het weer een vitaal onderdeel van onze infor­ma­tie­be­hoefte. Deze infor­matie bepaalt in hoge mate een aantal (stra­te­gi­sche) beslis­singen die wij nemen. Om het maar simpel te benaderen: nemen we de fiets of de tram? De kinderen maar met de auto naar school brengen? En de paraplu moet mee en de regenjas aan. Gebaseerd op empirisch bewijs leren we dat deze voor­spel­ling vaak niet zo uitpakt als wij hebben aange­nomen. Dat komt mijns inziens doordat we generieke infor­matie hebben geïn­ter­pre­teerd als exact en voor onze situatie. 

Als we dit vertalen naar beslis­singen die we nemen over onze data­cen­ters zullen we horen dat daar (uiteraard) besluiten vallen gebaseerd op feiten, data uit onze onder­steu­nende DCIM-systemen. Onze ‘Single Pane of Truth’ vertelt de werke­lijk­heid in onze situatie. En die uitkomst geloven wij, net als de weersvoorspelling. 

Dit is geen artikel over wel en wee of de kwaliteit van de betere DCIM-systemen. Dit artikel vraagt aandacht voor wat we noemen: de Digital Twin. En nu wordt het moeilijk – of juist inte­res­sant – omdat dit iets zegt over onze houding tegenover zaken die we onvol­doende kennen. Ja, we willen als data­center voor­op­lopen. Maar dan wel met bewezen tech­nieken waaruit alle kinder­ziektes al zijn verdwenen. 

Voor­op­lopen en onder­schei­dend vermogen in de data­cen­ter­markt is waarde creëren voor gebrui­kers en klanten. Een aantrek­ke­lijk en concur­re­rend bedrijf zijn voor klanten en een aantrek­ke­lijke werkgever voor engineers. En bovenal, aantrek­ke­lijk zijn voor de nood­za­ke­lijke instroom van betrouw­bare mede­wer­kers. Maar hoe inte­res­sant zijn wij voor instroom als we vast­houden aan ‘proven technology’?

Betrouwbaar  =  24 for ever

Het ‘buzz word’ is hier wat mij betreft: betrouw­baar. Er zijn weinig goede data­center engineers en of die betrouw­baar genoeg werken is de vraag. Betrouw­baar zijn is het gevolg van leren werken in een ‘high reli­a­bi­lity culture’. Een omgeving waar proce­dures, opleiding en training leidend zijn, om lijden voor gebrui­kers te voorkomen. Werken met gebouw­in­stal­la­ties is niet gelijk aan werken in een nucleaire centrale of een data­center met ’24 For Ever’ beschikbaarheid. 

Werken aan compe­ten­tie­ont­wik­ke­ling van algemeen technicus tot betrouw­baar data­center engineer, is (in Nederland) niet mogelijk via een algemeen scho­lings­pro­gramma. Onze data­cen­ter­we­reld moet daar dus zelf zorg voor dragen. Om betrouw­baar te zijn hebben we dus goed getrainde engineers nodig, en uiteraard goed getrainde OEM engineers voor het instand­hou­dings­on­der­houd van onze Tier III- of Tier IV-infra­struc­tuur. Deze engineers en hun mana­ge­ment hebben voor besluit­vor­ming correcte infor­matie nodig, ik noemde al de Single Pane of Truth. Voor wat het waard is, dat denken we te hebben, maar klopt dat wel?

Reactief versus proactief

Een Single Pane of Truth geeft actuele infor­matie, maar is niet proactief (natuur­lijk, niveau-en trend­be­wa­king etc.). En daar zit wat mij betreft de kneep. Wat je wilt bereiken is problemen voorkomen door je risico’s proactief te managen. In het verleden was dat eenvoudig. Een of meer main­frames die vele jaren opgesteld stonden in ruimten met een intensief geregeld klimaat op 50% Rv bij 21 °C.  Maar zo ziet onze wereld er niet meer uit. De dynamiek in onze white space is sterk toege­nomen, evenals de visie op ener­gie­ver­bruik en opti­ma­li­satie van de vierkante meters. 

Ook kennen we allemaal de voor­beelden van haastig geplaatste servers waarbij achteraf blijkt dat de koeling toch proble­ma­tisch is. Hercon­fi­gu­reren van produc­tie­sys­temen is een idee-fixe en dan blijft over de meestal kostbare aanpas­sing van de omgeving. Ook de IT-bena­de­ring waarbij men zegt ‘ik vernieuw servers, de oude confi­gu­ratie was 100kW, de nieuwe maar 60kW’ vormt een probleem. Want wat we meestal niet weten is de speci­fieke koel­be­hoefte en lucht­huis­hou­ding in de machine. En daar ligt de bron van mogelijke problemen omdat je ontwerpsi­tu­atie niet meer correct is. Je moet in feite de engi­nee­ring opnieuw uitvoeren.

De tweeling ≠ twin center

Wat nodig is om betrouw­baar te zijn, is voor­spel­baar­heid en daarbij komt de eerder genoemde Digital Twin om de hoek. Letter­lijk: een virtuele weergave van een fysiek object of systeem. Geen nieuws, de digi­ta­li­se­ring trans­for­meert de ‘industrie’ naar een industrie die beter kan voor­uit­kijken naar de toekomst. Zeker, onze (betere) DCIM-systemen geven (beheer) infor­matie en verze­keren ons een voorspelbaarheid. 

Maar laten we de indu­striële inte­gratie van gedi­gi­ta­li­seerde bedrijfs­pro­cessen in een consis­tent samen­wer­kings­plat­form tot één digitale waar­de­keten niet verwarren met waar ik naar toe wil. Ik bedoel meer dan een digitale dubbel­ganger. Ik denk aan een dubbel­ganger die actuele data combi­neert met feite­lijke data uit een bibli­o­theek en daarmee een weten­schap­pe­lijke simulatie creëert van de toekom­stige situatie bij vernieu­wing van servers en andere hardware. Een Digital Twin die op eenvou­dige wijze velerlei simu­la­ties voor de white space in data­cen­ters mogelijk maakt. En daar wijkt de data­center-twin af van de digitale tweeling die in de industrie gebrui­ke­lijk is.

Buzz word of commercieel attractief? 

‎In de industrie is een digital twin een dyna­mi­sche, digitale weergave van een echt object, gekoppeld met actuele/​live data als tempe­ra­tuur, druk, tril­lingen en derge­lijke. De hele slimme twins maken kans­be­re­ke­ning en werken econo­mi­sche scenario’s uit. ‎Je praat eenvoudig tegen ze, net als we doen met Apple’s SIRI. ‎

Een praktisch voorbeeld is een vlieg­tuig­motor. Op een vlucht zal een General Electric-motor (of andere die van Rolls-Royce) een slordige 2 TB aan data doorgeven aan een digital twin in een data­center van de fabrikant. Als de digitale tweeling patronen in de soft­wa­re­ge­ge­vens detec­teert die wijzen op een mogelijke fout, dan wordt een onder­houds­team naar de lucht­haven van bestem­ming gestuurd met de juiste onder­delen om een reparatie uit te voeren. Efficiënt en veilig voor de gebrui­kers zult u zeggen. 

Gegevens over de bedrijfs­om­stan­dig­heden in de echte wereld worden ook terug­ge­kop­peld naar het ontwerp­team om simu­la­ties en daar­op­vol­gende ontwerp­ver­be­te­ringen voor toekom­stige versies aan te sturen. Voor data­cen­ters kunnen digitale twee­lingen eveneens van grote betekenis en impactvol zijn, maar het type model dat wordt gebruikt is iets anders.‎

‎Digital Twins voor datacenters‎

‎De frequente wijziging in IT-confi­gu­ra­ties betekenen dat het ontwerp van een data­center nooit vaststaat. Feitelijk zou bij elke wijziging als het ware opnieuw ontworpen moeten worden. Patronen uit het verleden worden niet nood­za­ke­lij­ker­wijs in kaart gebracht op toekom­stige patronen waardoor data­ge­stuurde twin modellen hebben te lijden van incon­sis­tente gegevens. Toekom­stig gedrag kan niet worden voorspeld op basis van confi­gu­ra­ties uit het verleden.‎ Als een rij kabi­netten wordt verplaatst of een nieuwe IT-confi­gu­ratie in een cooling alley wordt geplaatst, verandert dit de data­cen­ter­om­ge­ving. Gevolg hiervan is dat eerdere gegevens niet helpen het toekom­stige gedrag van de faci­li­teit te voor­spellen in die nieuwe configuratie. 

Dit toont de lacune aan in de effec­ti­vi­teit van data­ge­stuurde modellen bij gebruik in data­cen­ters. ‎Om dit te verhelpen dienen digitale twee­lingen voor data­cen­ters op fysica gebaseerd te zijn en de moge­lijk­heid te bieden om de effecten van een nieuwe confi­gu­ratie te simuleren. Een op fysica geba­seerde digitale tweeling bestaat uit een volledige 3D-weergave van de data­cen­ter­ruimte, archi­tec­tuur, mecha­ni­sche en tech­ni­sche systemen, koeling, connec­ti­vi­teit en het draag­ver­mogen van de verhoogde vloer. 

Door gebruik te maken van deze gegevens kan de impact van elke wijziging in het data­center mathe­ma­tisch worden berekend tot een voor­spel­ling die in het 3D-model gevi­su­a­li­seerd en gekwan­ti­fi­ceerd wordt weer­ge­geven. Allemaal voor­af­gaand aan de fysieke imple­men­tatie waardoor onver­moede effecten tot het verleden behoren.‎ Immers, op fysica geba­seerde digitale twee­lingen nemen het risico weg dat gepaard gaat met wijzi­gingen in een opera­ti­o­neel data­center, door een veilige omgeving in het platform te bieden om de impact van wijzi­gingen nauw­keurig te testen voor­af­gaand aan imple­men­tatie van de change.‎

Been there, Seen That

Dit soort software wordt door velen verguist als ‘het volgende CFD-model’ of gezien als ‘geïn­te­greerd’ in ons DCIM-pakket. ‘We hebben een CFD van de bouw’ hoor ik ook veel.

‎Maar wat ik bedoel is echt veel meer dan dat. Een digital twin-model maakt nauw­keu­rige capa­ci­teits­plan­ning en prognoses en geeft de moge­lijk­heid om kosten eenvoudig te kwan­ti­fi­ceren. Poten­tiële issues in de engi­nee­ring kunnen daarom vroeg in de plan­nings­fase worden geïden­ti­fi­ceerd door meerdere stake­hol­ders in de orga­ni­satie. Dit bevordert weder­zijds begrip en samen­wer­king tussen IT en Faci­li­ties. Het resultaat is een effi­ci­ën­tere data­cen­ter­in­fra­struc­tuur die wordt gemanaged door effec­tieve, respon­sieve en juist geïn­for­meerde teams.‎ Met een op fysica geba­seerde digitale tweeling van het data­center zijn IT en Faci­li­ties in staat om samen te werken en op een veilige manier te expe­ri­men­teren met wijzi­gingen, in de weten­schap dat kritieke bedrijfs­func­ties volledig onaan­ge­roerd blijven. Bij juist gebruik biedt deze tweeling moge­lijk­heden om te innoveren, pres­ta­ties te verbe­teren en niet in de laatste plaats ook de moge­lijk­heid om mede­wer­kers intensief te trainen met simulatie van rampscenario’s en verstoringen. 

‎Hoe weet ik dat het werkt?

Het is niet mijn bedoeling om systemen aan te bevelen, maar uit eigen ervaring heb ik er uiteraard wel een mening over. Alweer vele jaren geleden heb ik een pilot­pro­ject laten uitvoeren in samen­wer­king met Future Faci­li­ties. Ik was de firma tegen­ge­komen op een congres in Cali­fornië en was onder indruk van wat de software te bieden had. Over Digital Twin had niemand het in die tijd, maar het 3D-model was spec­ta­cu­lair. De bibli­o­theek bevat alle denkbare IT: servers, switches, kasten enz. Deze data, gecom­bi­neerd met eenmalige fysieke opname van de facility en de E- en W‑infrastructuur produ­ceerden het model waarmee wij konden werken. 

Het werd een complete virtuele replica van een van onze grootste data­cen­ters – in 3D. Natuur­lijk hadden wij DCIM en een CMDB. De praktijk liet toch afwij­kingen zien bij elke ‘floor sweep’. Met dit soft­wa­re­pakket hadden we een door­zoek­baar archief van al onze IT-middelen. We konden de instal­latie van nieuwe appa­ra­tuur simuleren door te werken met ‘slimme’ bibli­o­theek­ob­jecten. Dit was mogelijk omdat de bibli­o­theek apparaat-ID’s, maten en gewichten, instroom- en uitstroom­ope­ningslo­ca­ties voor koeling, werkelijk (derated) vermogen, CFM-stromen en het aantal netwerk­poorten bevatte. De inge­bouwde Computa­ti­onal Fluid Dynamics (CFD) engine is van hoge kwaliteit en geeft koeling en lucht­stroom weer als geen enkel ander softwaregereedschap. 

Dit geheel gaf een indruk­wek­kend totaal­over­zicht in één gecen­tra­li­seerde database die wij gebruikten om stroom, ruimte, koeling, gewicht en netwerk­poort­ca­pa­ci­teit bij te houden en te plannen. Het was een Single Pane of Truth dat de complete werke­lijk­heid weergeeft én kan voor­spellen. Nieuwe infra­struc­tuur boven de racks in plaats van onder de verhoogde vloer, IBM-mainframe in een cooling alley, maatwerk-lucht­roos­ters in de vloer en nog vele andere zaken die de feite­lijke engi­nee­ring raken zijn in de loop van de tijd gepasseerd. 

En eerlijk, het systeem werkte goed, maar was in de praktijk helaas minder gebruiks­vrien­de­lijk. Maar ook bij Future Faci­li­ties heeft de tijd niet stil­ge­staan en er is veel gedaan aan het meer volwassen maken van de GUI en de software. Dit mede door toene­mende vraag in de markt, met name van een aantal top 10-bedrijven in de V.S. Een gebruiks­vrien­de­lijke user interface neemt veel werk uit handen en de software inte­greert nu met de gebrui­ke­lijke DCIM‑, of CMDB-systemen zoals Servi­ceNow, Nlyte, Struxu­re­Ware of Sunbird.

Kies voor innovatie

Iedereen is inno­va­tief. Niemand heeft problemen met werven van engineers, ontwik­kelen en vooral behouden van profes­si­o­nele engineers. Alle data­cen­ters zijn maximaal efficiënt en kosten­ef­fec­tief. En dat allemaal met een behou­dende instel­ling en een voorkeur voor provo tech­no­logy? Niet haalbaar, vrees ik.

Verwacht ik daar­en­tegen een positieve uitkomst en toege­voegde waarde van inves­teren in een Digital Twin voor onze data­cen­ters? Verwacht ik dat IoT en AI van grote invloed zullen zijn in de data­cen­ter­in­du­strie? Ik verwacht het niet, ik weet het zeker. Maar als we conser­va­tief blijven denken en doen, overvalt de razende snelheid in ontwik­ke­ling ons en zet ons snel op achter­stand. En dat, zou een gemiste kans zijn.

Pin It on Pinterest

Share This