Panduit: De Impact van AI op Datacenters is Groter dan Verwacht

14 november 2024

De intro­ductie van kunst­ma­tige intel­li­gentie (AI) heeft de werking van data­cen­ters funda­men­teel veranderd. AI, dat inmiddels in vrijwel elke sector zijn weg heeft gevonden, brengt unieke uitda­gingen met zich mee op het gebied van ener­gie­be­heer, koeling, connec­ti­vi­teit en ruim­te­ge­bruik. In een recent onderzoek analy­seert Panduit hoe AI de infra­struc­tuur van data­cen­ters beïn­vloedt en welke aanpas­singen nodig zijn om deze tech­no­logie optimaal te ondersteunen.

Energie-intensieve AI-processen

AI-workloads zoals machine learning en deep learning vragen om enorme reken­kracht, wat leidt tot een forse toename van het ener­gie­ver­bruik. Tradi­ti­o­nele data­cen­ter­toe­pas­singen draaien vooral op CPU’s, maar AI-processen vereisen GPU’s en TPU’s, die aanzien­lijk meer energie verbruiken.

Volgens Panduit kan een enkele CPU ongeveer 100 watt verbruiken, terwijl high-end GPU’s zoals de NVIDIA A100 en H100 tussen de 400 en 800 watt verbruiken. Bij hypers­cale data­cen­ters, zoals die van Google en Amazon, kan het totale jaar­lijkse ener­gie­ver­bruik hierdoor oplopen tot tien­tallen megawatt.

Koelingsuitdagingen

Met de stijging in ener­gie­ver­bruik neemt ook de warm­te­pro­ductie fors toe. Dit stelt data­cen­ters voor nieuwe uitda­gingen, aangezien tradi­ti­o­nele lucht­koe­ling zijn limiet bereikt bij rack-dicht­heden boven de 20 kilowatt. AI-systemen, met rack-dicht­heden die gemak­ke­lijk tussen de 30 en 50 kilowatt liggen, vereisen inno­va­tieve oplossingen.

Vloei­stof­koe­ling wordt gezien als een van de meest effi­ci­ënte manieren om deze hitte af te voeren. Een nog geavan­ceer­dere methode, immersion cooling, dompelt hele servers onder in een thermisch gelei­dende vloeistof. Dit zorgt voor een aanzien­lijk betere warm­te­af­voer in verge­lij­king met lucht­koe­ling. Daarnaast inves­teren data­cen­ters in warm­te­te­rug­win­nings­tech­no­lo­gieën, waarbij over­tol­lige warmte opnieuw wordt gebruikt, bijvoor­beeld voor stadsverwarming.

Snelle gegevensoverdracht en connectiviteit

AI genereert enorme hoeveel­heden data die in real-time verwerkt moeten worden. Dit vraagt om ultra­snelle netwerken. Terwijl tradi­ti­o­nele data­cen­ters vaak gebruik­maken van Ethernet-netwerken, schakelen AI-data­cen­ters over naar tech­no­lo­gieën zoals Infi­ni­Band. Deze netwerken bieden niet alleen een veel hogere band­breedte, tot wel 800 Gbps, maar ook een aanzien­lijk lagere latency.

Ook de vraag naar glas­ve­zel­be­ka­be­ling groeit, aangezien deze tech­no­logie niet alleen toekomst­be­stendig is, maar ook voldoet aan de hoge eisen van AI-workloads. Goed kabel­be­heer blijft hierbij cruciaal om signaal­ver­lies te minimaliseren.

Ruimte- en infrastructuuruitdagingen

AI heeft niet alleen invloed op de tech­no­logie, maar ook op de fysieke inrich­ting van data­cen­ters. De hogere rack-dicht­heden en zwaardere hardware vereisen versterkte racks en vloeren. In sommige data­cen­ters wordt appa­ra­tuur verspreid over meerdere verdie­pingen om de belasting beter te verdelen.

Om flexibel in te spelen op de veran­de­rende eisen van AI, maken data­cen­ters steeds vaker gebruik van modulaire ontwerpen. Deze modulaire eenheden kunnen snel worden aangepast of uitge­breid, wat essen­tieel is in een omgeving waar tech­no­logie zich razend­snel ontwikkelt.

Automatisering en beheertools

AI wordt ook ingezet om de eigen infra­struc­tuur van data­cen­ters effi­ci­ënter te maken. Geavan­ceerde auto­ma­ti­se­rings- en beheer­tools gebruiken machine learning om patronen te herkennen in ener­gie­ver­bruik, koel­ef­fi­ci­ëntie en netwerk­pres­ta­ties. Hierdoor kunnen operators proactief ingrijpen bij eventuele problemen, wat de uptime van systemen maximaliseert.

Sensoren en slimme analyses helpen bovendien om onderhoud beter te plannen en onver­wachte storingen te voorkomen.

Blik op de toekomst

AI blijft zich snel ontwik­kelen, en data­cen­ters moeten zich hierop blijven aanpassen. Panduit voorziet dat de scheids­lijn tussen AI-model­trai­ning en ‑infe­ren­cing verder vervaagt, wat nieuwe eisen stelt aan de hardware.

Daarnaast ziet Panduit enkele belang­rijke trends voor de komende jaren:

Edge computing: Het verplaatsen van data­ver­wer­king naar de rand van het netwerk om latentie te verlagen.

Duur­zaam­heid: De toene­mende inte­gratie van hernieuw­bare ener­gie­bronnen en initi­a­tieven voor koolstofneutraliteit.

Kwan­tum­com­pu­ting: Hoewel nog in ontwik­ke­ling, kan deze tech­no­logie in de toekomst een grote rol spelen in data­cen­ter­de­signs. De eerste opera­ti­o­nele kwan­tum­com­pu­ters zijn inmiddels al in gebruik, waaronder binnen­kort een systeem in Amsterdam.

Conclusie

AI heeft de eisen die aan data­cen­ters worden gesteld ingrij­pend veranderd, aldus Panduit. Inves­te­ringen in energie-effi­ci­ëntie, geavan­ceerde koel­sys­temen en netwer­k­in­fra­struc­tuur zijn essen­tieel om deze veran­de­ringen bij te benen. Door proactief in te spelen op de tech­no­lo­gi­sche ontwik­ke­lingen, kunnen data­cen­ters niet alleen de uitda­gingen van vandaag aan, maar ook een cruciale rol spelen in de toekomst van AI.

Data­cen­ter­o­pe­ra­tors die deze dynamiek omarmen, posi­ti­o­neren zichzelf als koplopers in een steeds verder door AI gedreven wereld.

Pin It on Pinterest

Share This