Arista onthult Etherlink AI-netwerkplatforms

7 juni 2024

Arista Networks heeft de Arista Etherlink AI platforms aange­kon­digd, ontworpen om optimale netwerk­pres­ta­ties te leveren voor veel­ei­sende AI-workloads, inclusief training en infe­ren­cing. Aange­dreven door AI-geop­ti­ma­li­seerde Arista EOS-functies, onder­steunt het Arista Etherlink AI-portfolio AI-clusters variërend van duizenden tot 100.000 XPU’s. Met zeer effi­ci­ënte één- en tweelaags netwerk­t­o­po­lo­gieën die uitzon­der­lijke appli­ca­tie­pres­ta­ties leveren in verge­lij­king met complexere multi-tier netwerken en moni­to­ring­func­ties voor inzicht op flow-niveau.

Overzicht Arista Etherlink AI platforms

  • De 7060X6 AI Leaf-switches maken gebruik van Broadcom Tomahawk 5®-silicium, met een capa­ci­teit van 51,2 Tbps en onder­steu­ning voor 64 800G- of 128 400G Ethernet-poorten.
  • De 7800R4 AI Spine is de 4e generatie van Arista’s vlag­gen­schip 7800 modulaire systemen. Deze benut de nieuwste Broadcom Jericho3-AI-proces­sors met een AI-geop­ti­ma­li­seerde packet pipeline en non-blocking verwer­king via de virtual output queuing archi­tec­ture. De 7800R4-AI onder­steunt tot 460 Tbps in één chassis, via 576 800G- of 1152 400G Ethernet-poorten.
  • De 7700R4 AI Distri­buted Etherlink Switch (DES) onder­steunt de grootste AI-clusters en biedt klanten massaal parallel gedis­tri­bu­eerde sche­du­ling en conges­tie­vrij verkeer op basis van de Jericho3-AI-archi­tec­tuur. De 7700 is de eerste van een nieuwe serie vergaand schaal­bare en intel­li­gente gedis­tri­bu­eerde systemen, die de hoogste consis­tente doorvoer kunnen leveren voor zeer grote AI-clusters.

De 7060X6-switches zijn nu al leverbaar. De 7800R4-AI en 7700R4 DES worden momenteel nog door klanten getest en komen in de tweede helft van 2024 beschik­baar. Alle Etherlink-switches onder­steunen de opkomende Ultra Ethernet Consor­tium (UEC)-stan­daarden, die naar verwach­ting extra pres­ta­tie­voor­delen gaan opleveren wanneer UEC NIC’s in de nabije toekomst beschik­baar komen.

Een single-tier topologie met Etherlink-platforms onder­steunt meer dan 10.000 XPU’s. In een tweelaags netwerk kan Etherlink ruim 100.000 XPU’s onder­steunen. Het mini­ma­li­seren van het aantal netwerk­lagen is essen­tieel voor het opti­ma­li­seren van de pres­ta­ties van AI-appli­ca­ties, het vermin­deren van het aantal optische trans­cei­vers, het verlagen van de kosten en het verbe­teren van de betrouwbaarheid.

Fundering voor AI-clusters

“Het netwerk is de fundering voor het succesvol voltooien van opdrachten in AI-clusters”, zegt Alan Weckel, oprichter en tech­no­lo­gie­ana­list voor 650 Group. “De Arista Etherlink AI-platforms bieden klanten de moge­lijk­heid om over één enkel 800G end-to-end tech­no­lo­gie­plat­form te beschikken voor front-end‑, training‑, infe­rentie- en stor­age­net­werken. Klanten profi­teren van het gebruik van dezelfde beproefde Ethernet-tooling, bevei­li­ging en expertise waar ze al tien­tallen jaren op vertrouwen, terwijl ze eenvoudig kunnen worden opge­schaald voor elke AI-toepassing.”

“Broadcom gelooft sterk in de veel­zij­dig­heid, pres­ta­ties en robuust­heid van Ethernet, waardoor het de tech­no­logie bij uitstek is voor AI-workloads”, zegt Ram Velaga, senior vice president & general manager, Core Switching Group, Broadcom. “Door gebruik te maken van toon­aan­ge­vende Ethernet-chips zoals Tomahawk 5 en Jericho3-AI, biedt Arista de ideale acce­le­rator-agnos­ti­sche oplossing voor AI-clusters van elke vorm of omvang. Deze presteert beter dan bedrijfs­eigen tech­no­lo­gieën en biedt flexibele opties voor vaste, modulaire en gedis­tri­bu­eerde switchplatforms.”

Arista EOS Smart AI Suite

De uitge­breide func­ti­o­na­li­teit van Arista EOS en Cloud­Vi­sion vormen een aanvul­ling op deze nieuwe ‘networ­king-for-AI platforms’. De inno­va­tieve software voor AI-for-netwer­king, bevei­li­ging, segmen­tatie, zicht­baar­heid en tele­me­trie­func­ties brengt robuust­heid en bescher­ming op AI-niveau voor hoog­waar­dige AI-clusters en workloads. De Arista EOS Smart AI Suite met inno­va­tieve verbe­te­ringen is bijvoor­beeld te inte­greren met SmartNIC-providers voor geavan­ceerde RDMA-bewuste load-balancing en QoS. Arista AI Analyzer, aange­stuurd door Arista AVA, auto­ma­ti­seert de confi­gu­ratie en verbetert de zicht­baar­heid en intel­li­gente pres­ta­tie­ana­lyse van AI-workloads.

“Arista’s concur­ren­tie­voor­deel is conse­quent het gevolg van ons rijke opera­ting­sys­teem en brede product­port­folio om AI-netwerken van elke omvang aan te pakken”, zegt Hugh Holbrook, Chief Devel­op­ment Officer van Arista Networks. “Inno­va­tieve AI-geop­ti­ma­li­seerde EOS-functies maken een snellere imple­men­tatie mogelijk, vermin­deren confi­gu­ra­tie­pro­blemen en leveren pres­ta­tie­ana­lyses op flow-niveau, en verbe­teren de verwer­kings­tijden van AI-taken voor AI-clusters van elke omvang.”

Pin It on Pinterest

Share This