Backup-strategie cruciaal voor succes virtualisatie

20 oktober 2021

Virtu­a­li­satie biedt grote voordelen. Toch zien we dat virtu­a­li­seren nog lang niet altijd de standaard aanpak is binnen de IT-strategie van veel orga­ni­sa­ties. Een belang­rijke uitdaging zit ‘m in het kiezen van de juiste backup-strategie.

Virtu­a­li­satie is natuur­lijk al lang geen nieuw concept meer. Uit vrijwel ieder onderzoek naar de pene­tra­tie­graad van virtu­a­li­satie-tools komen hoge percen­tages naar voren. Wie echter goed naar de cijfers kijkt, ziet dat er weliswaar erg veel IT-afde­lingen zijn die tools voor virtu­a­li­satie hebben aange­schaft, maar dat het daad­wer­ke­lijk toepassen van deze voor­zie­ningen vaak nog in de kinder­schoenen staat. Anders gezegd: men heeft weliswaar virtu­a­li­sa­tie­pro­jecten gedaan, maar de mate van virtu­a­li­seren is soms nog erg beperkt. 

Voor- en nadelen

Om te begrijpen waarom dit zo is en hoe we dit probleem kunnen oplossen moeten we eerst even terug naar de basis. Onder virtu­a­li­satie verstaan we het loskop­pelen van IT-toepas­singen en de hardware waarop deze zijn geïn­stal­leerd. In de klassieke IT-aanpak werd voor iedere serieuze appli­catie – business software, een database-omgeving, noem maar op – een aparte hard­wa­re­ma­tige server gekozen. Dat had een groot voordeel: als een appli­catie een storing vertoonde kon de software of wellicht zelfs de hardware eenvoudig opnieuw gestart worden en was in veel gevallen het probleem verholpen.

Maar deze aanpak kende ook belang­rijke nadelen. Vaak benut die ene appli­catie namelijk maar een klein gedeelte van de totale capa­ci­teit van de server waarop deze is geïn­stal­leerd. De rest van de verwer­kings­ca­pa­ci­teit wordt simpelweg niet gebruikt. Een ‘utili­sa­tion rate’ van slechts 5 of 7% is dan – zeker als het om Windows-servers gaat – helemaal geen uitzon­de­ring. Met als gevolg een forse verspil­ling van hardware, maar natuur­lijk ook van geld. 

Ruimtegebrek

Voor veel orga­ni­sa­ties komt daar nog een extra probleem bij. Al deze maar deels in gebruik zijnde servers vereisen veel ruimte in de server room of het data­center. In onze steeds meer digi­ta­li­se­rende wereld is die fysieke ruimte vaak simpelweg niet beschikbaar. 

Hetzelfde geldt voor bijvoor­beeld elek­tri­ci­teit. Op steeds meer locaties is nog maar nauwe­lijks voldoende stroom beschik­baar. Nog meer appa­ra­tuur in ons data­center plaatsen is ook vanuit dat oogpunt vaak niet verstandig. Als het al mogelijk is.

Virtuele servers

Virtu­a­li­satie biedt hier een mooie oplossing voor. Door de fysieke hardware van de server te virtu­a­li­seren kunnen we meerdere virtuele severs – anders gezegd: servers gebouwd in software – op deze hardware plaatsen. Door meerdere van deze zogeheten virtual machines of VM’s op een fysieke server te instal­leren, ontstaat natuur­lijk een mooie kans om de hard­wa­re­ma­tige capa­ci­teit van die server veel beter te benutten. 

Hierdoor worden ineens benut­tings­per­cen­tages van 40 of 50% haalbaar. Dat levert direct belang­rijke voordelen op: minder ruim­te­be­slag, terwijl de server veel beter wordt benut waardoor ook de eigenaar van de server meer value for money krijgt. Het wordt bovendien mogelijk om virtuele servers ‘op te pakken’ en te verplaatsen naar fysieke servers die de meeste capa­ci­teit beschik­baar hebben of wat betreft speci­fi­ca­ties misschien beter geschikt zijn voor een bepaalde VM.

Duurzamer

Onderzoek in Nederland heeft laten zien dat er echter nog een groot voordeel aan virtu­a­li­seren zit: duur­zaam­heid. Anders gezegd: door slim te virtu­a­li­seren kan de enorme groei in het ener­gie­ver­bruik van ICT en data­cen­ters aanzien­lijk beperkt worden. Zeker als bij de keuze van de fysieke hardware rekening wordt gehouden met het soort VM’s dat op deze hardware gedraaid gaat worden. Het op een weldoor­dachte manier groeperen van VM’s op bepaalde fysieke servers draagt hier zeker aan bij. Dit groeperen kan dan het beste gebeuren aan de hand van de speci­fieke kenmerken van de appli­ca­ties die in de VM’s zijn geïn­stal­leerd. Proeven bij onder andere KPN laten zien dat hierdoor tien­tallen procenten aan ener­gie­be­spa­ring mogelijk zijn.

Backup-strategie

Ondanks alle voordelen zien we dat het gebruik van virtu­a­li­satie in sommige branches en sectoren echter nog wat tegenvalt. Zoals gezegd, vrijwel iedere enter­prise-orga­ni­satie en ook steeds meer kmo’s passen weliswaar virtu­a­li­satie toe, maar hebben deze aanpak nog niet als de standaard aanpak ingevoerd. 

Vaak spelen hierbij niet zozeer tech­ni­sche argu­menten, maar gewoontes en best practices die zijn ontstaan in de tijden van de klassieke IT. Zo speelt er bij veel IT-afde­lingen een probleem rond de backup-strategie. Wanneer we over­stappen op een gevir­tu­a­li­seerde IT-omgeving dienen we ons namelijk ook af te vragen hoe we om moeten gaan met het maken van backups van de data die in de diverse VM’s zijn opge­slagen. Blijven we vast­houden aan de oude gewoontes en maken we dus een backup van de fysieke server? Of kiezen we voor een aanpak die is geop­ti­ma­li­seerd voor het maken van backups per VM en waarbij we iedere VM indi­vi­dueel backuppen?

Belangrijk probleem

De meeste backup-beheer­ders zien nadat zij bijvoor­beeld VMware vSphere 7 in gebruik hebben genomen niet direct een noodzaak om hun backup-strategie te wijzigen. Ze imple­men­teren agent- of client­soft­ware op elke VM alsof het een fysieke machine is. Die aanpak werkt weliswaar, maar levert vaak ook tech­ni­sche problemen op omdat men zich onvol­doende reali­seert dat het maken van backups in een gevir­tu­a­li­seerde omgeving anders is dan in een omgeving met uitslui­tend fysieke hardware.

Een voorbeeld van een probleem waarmee we te maken kunnen krijgen, is het feit dat backup-software is geop­ti­ma­li­seerd om in korte tijd van zoveel mogelijk servers een backup te maken. Hierdoor kan gemak­ke­lijk de I/​O‑capaciteit van een server waarop meerdere VM’s zijn geïn­stal­leerd over­wel­digd raken. Stel dat vanaf dezelfde fysieke server 10 VM’s gelijk­tijdig proberen een backup te maken. Veel servers beschikken simpelweg niet over voldoende I/​O‑capaciteit om al dat data­ver­keer te kunnen verwerken.

Geoptimaliseerde tool kiezen

In iets meer detail is dit wat er vaak gebeurt. De agent- of client­soft­ware die op elke VM wordt geplaatst scant de server op nieuwe gegevens op blok- of bestands­ni­veau en maakt er een back-up van op het volgende geplande backup-moment. Deze software wordt meestal gepre­sen­teerd als ‘lite’, waarmee gesug­ge­reerd wordt dat er weinig systeem­bronnen worden gebruikt. Vaak geven vendoren aan dat hun backup-clients ongeveer 2% van de system resources gebruiken. Dit percen­tage geeft echter niet het resource-gebruik weer op het moment de agent daad­wer­ke­lijk de backup uitvoert. Dan is het gebruik van systeem­bronnen veelal beduidend hoger. Verme­nig­vuldig dat met het aantal VM’s en het zal duidelijk zijn dat er een serieuze mismatch bestaat tussen de vraag naar systeem resources en de beschik­baar­heid daarvan.

Het maken van backups van een gevir­tu­a­li­seerde IT-omgeving is voor veel IT-afde­lingen een lastige kwestie. Vaak beschikt de storage- of backup manager ook niet over de juiste kennis om dit probleem zelf aan te pakken. Daarom is het in vrijwel alle gevallen beter om een voor Virtual Machines geop­ti­ma­li­seerde backup-oplossing aan te schaffen. Dat betekent weliswaar inves­teren in een nieuwe backup tool, maar de voordelen – snelheid, opti­ma­li­satie per VM, impact op de beschik­bare system resources enz – wegen veelal meer dan voldoende op tegen deze extra kosten die met een derge­lijke tool gepaard gaan. 

Pin It on Pinterest

Share This