Een nieuw tijdperk met nieuwe uitdagingen? Dat vereist nieuwe datacenters

1 april 2021

Het recentste decennium is – voor­na­me­lijk door de COVID-19 pandemie – met heel wat grote veran­de­ringen gestart. In veel bedrijven kreeg thuis­werken voorrang. Ook vandaag nog trouwens. Werk­ne­mers en bedrijven vertrouwen hierdoor nog meer op tech­no­logie om hun werk vanop afstand uit te voeren. Het is misschien minder zichtbaar dan al die foto’s en berichten met Zoom-calls, maar de data­cen­ter­net­werken onder­vinden de grootste impact van deze nieuwe manier van werken.

Om dit te verdui­de­lijken, duik ik even terug in de tijd. In de jaren 1990 en 2000 zagen we een enorme toename van data­cen­ters. Daarop volgde – in die data­cen­ters – de centra­li­satie van reken­kracht en de bijbe­ho­rende infra­struc­tuur. Door de opkomst van de public cloud in de voorbije jaren, die eerst deze gecen­tra­li­seerde aanpak versterkte, slaat de slinger nu opnieuw de andere kant uit. Terug naar decen­tra­li­satie en … de edge. Volgens onder­zoeks­bu­reau Gartner wordt vandaag maar liefst 90% van alle data gecreëerd en verwerkt in gecen­tra­li­seerde data­cen­ters of in de cloud. Tegen 2025 verwachten de analisten dat ongeveer 75% van de gegevens zullen moeten worden verwerkt, geana­ly­seerd en verwerkt aan de rand van het ‘netwerk’. De edge dus. En dat is een enorme omslag waar je beter bent op voorbereid. 

Wat is de edge en waarom is het belangrijk?

Simpel gezegd wordt bij edge computing de IT-infra­struc­tuur verplaatst naar de rand van het IT-netwerk. Die (kleinere) edge data­cen­ters bevinden zich ofwel on premise of op locaties dicht bij de eind­ge­brui­kers. Die kortere afstand tussen de edge-data­cen­ters en de eind­ge­brui­kers is de sterkte ervan. Want dat biedt de moge­lijk­heid om toepas­singen te onder­steunen die meer band­breedte en snellere respons­tijden vereisen, of gevoelig zijn voor vertra­gingen, hoe minuscuul ook. 

De terugkeer naar decen­tra­li­satie via edge computing is groten­deels ingegeven door digitale trans­for­matie. Bedrijven en toepas­singen hebben steeds meer nood aan nieuwe infra­struc­tuur die data van diverse apparaten en sensoren met behulp van 5G, IoT of AI in real-time kunnen analy­seren, verwerken of monitoren. De bedrijfsin­no­va­ties van de nabije toekomst zullen door deze tech­no­lo­gieën (5G, IoT en AI) worden aangedreven. 

Volgens een ander onderzoek van Gartner zullen deze tech­no­lo­gieën een massa data produ­ceren, waarbij bedrijven alleen al dit jaar meer dan 7,5 miljard gecon­nec­teerde apparaten zullen gebruiken! Die apparaten zullen zich niet alleen in gecen­tra­li­seerde hubs bevinden, maar overal verspreid zijn. Dit betekent dat onze data­cen­ter­in­fra­struc­tuur funda­men­teel zal moeten veran­deren om het volledige poten­tieel ervan te kunnen benutten.

Hoe zullen datacenters veranderen?

Ten eerste zullen de grote data­cen­ters zoals we die vandaag kennen inkrimpen naarmate de workloads zich naar de cloud blijven verplaatsen maar vooral door de hogere densiteit als gevolg van hyperconvergentie.

Ten tweede is er de opkomst van de eerder­ge­noemde edge-data­cen­ters. Die zullen we steeds vaker zien naarmate de workloads uit de ‘klassieke’ data­cen­ters worden gehaald om zowel pres­ta­ties als kosten te opti­ma­li­seren. Data­cen­ters in eigendom zullen waar­schijn­lijk uit twee soorten bestaan:

  1. Een mix van tradi­ti­o­nele data­center en zoge­naamde campus netwerkomgevingen.
  2. Mini data­cen­ters binnen IoT-enabled omge­vingen, zoals bijvoor­beeld grote productiehallen.

Tot slot zullen de teams die appli­ca­ties ontwik­kelen, meer DevOps- en agile-prak­tijken blijven toepassen. Dit zal meer druk leggen bij netwerk­teams om alles rond de workload-gedreven bedrijfs­ac­ti­vi­teiten te optimaliseren.

De netwerkvereisten van de toekomst

Naarmate de infra­struc­tuur door de opkomst van edge-data­cen­ters verandert, zullen er ook andere eisen aan de netwerken worden gesteld. Dit zal je vooral zien als je een evenwicht probeert te vinden tussen de behoeften van edge-data­cen­ters en het toene­mende gebruik van cloud­dien­sten en de eventuele on-prem footprint die je nog hebt. Hier zijn drie vereisten waarmee je rekening moet houden wanneer je data­cen­ters naar de edge verplaatst.

1. Flows stroomlijnen met behulp van automatisering

Nu toepas­sings­teams het DevOps-principe en andere flexibele methodes toepassen om hun soft­wa­re­ont­wik­ke­ling te versnellen, zullen netwerk­ope­ra­ties veel meer geau­to­ma­ti­seerd en gestroom­lijnd moeten worden om de evolutie bij te benen.

De nodige oplos­singen hiervoor zullen wel rekening moeten houden met de huidige en toekom­stige bedrijfs­mo­dellen en met eventuele bestaande inves­te­ringen. Om tijd­ro­vende maar veel­voor­ko­mende confi­gu­ra­tie­taken te vereen­vou­digen, kan je kant-en-klare auto­ma­ti­se­ring overwegen. Terwijl voor teams met meer ontwik­kelde DevOps, het uitbreiden van gemeen­schap­pe­lijke auto­ma­ti­se­rings­plat­forms naar netwerk-gere­la­teerde workflows een absolute must zal worden. 

2. Voorsprong nemen met analyses

Vaak is het oplossen van problemen een van de meest tijd­ro­vende en grootste taken voor netwerk­ope­ra­ties. De visi­bi­li­teit van het netwerk is onge­loof­lijk belang­rijk om de gemid­delde herstel­tijd te verkorten, de IT-dienst­ver­le­ning te verbe­teren en teams met weinig personeel te helpen om zich te focussen op hun stra­te­gi­sche kernzaken. 

Tele­me­trie over het hele netwerk, die op elk knooppunt wordt vast­ge­legd en verwerkt, zal voor een kwan­tum­sprong zorgen. Deze analyses – inclusief reme­di­ë­ring – zullen belang­rijk zijn voor een stabieler netwerk en zullen storings­dien­sten helpen om proactief of zelfs preven­tief problemen op te lossen. 

Predic­tive Analytics is niet alleen belang­rijk om problemen op te lossen voordat ze zich voordoen, maar ook om beter in te schatten wanneer het netwerk­ge­bruik hoog za zijn – in het tijdperk van big data, cloud, streaming services en binnen­kort IoT zijn latency en connec­ti­vi­teit de boos­doener van menig data­center geweest. Dus het kunnen voor­spellen en ervoor zorgen dat het netwerk de juiste dimensie heeft om de ervaring te leveren die gebrui­kers nodig hebben, zal van vitaal belang zijn.

3. De beschikbaarheid 24/​7 garanderen

COVID-19 is de wereld nog niet uit en soepelere coron­a­maat­re­gelen zitten er voorlopig nog niet in. Inte­gen­deel, de overheid wil mensen nog steeds thuis laten werken en gaat hierop strenger contro­leren. Omdat we dus massaal data uitwis­selen, komen netwerken steeds meer onder druk te staan. Hierdoor zal de behoefte aan zeer flexibele netwerken blijven groeien – vooral omdat zelfs een kleine hapering enorme gevolgen kan hebben voor de produc­ti­vi­teit van een organisatie.

Het auto­ma­ti­seren van de dage­lijkse taken zal de kans op mense­lijke fouten sterk verkleinen. Netwerk­teams hebben daarnaast nood aan een veel eenvou­di­gere en betrouw­baar­dere manier om de beschik­baar­heid te garan­deren en om upgrades uit te voeren zonder dat dit de werking verstoort. Een cloud-native, micro­ser­vice-gebaseerd bestu­rings­sys­teem zou een geweldige oplossing kunnen zijn. Dit zorgt voor extra flexi­bi­li­teit op soft­ware­ni­veau en maakt het ook mogelijk om live software-upgrades te gebruiken om onder­houds­ven­sters te elimineren.

Conclusie

We zien een belang­rijke verschui­ving in de manier waarop we data­cen­ter­net­werken struc­tu­reren. Edge data­cen­ters is van deze trend het nieuwste wapenfeit. De boven­staande over­we­gingen geven houvast en stof tot nadenken over hoe jouw bedrijf het beste met deze veran­de­ringen kan omgaan. Misschien vind je het nog te vroeg voor edge data­cen­ters, maar het is nu al duidelijk dat deze data­cen­ters in de nabije toekomst een sleu­telrol zullen spelen.

Pin It on Pinterest

Share This