NTT en Red Hat leveren AI-analyse in de edge met IOWN Technologies

7 maart 2024

In het kader van het Inno­va­tive and Wireless Network (IOWN) initi­a­tief, hebben NTT Corpo­ra­tion (NTT), Red Hat Inc., NVIDIA en Fujitsu, een geza­men­lijke oplossing ontwik­keld die het poten­tieel van real-time AI-data-analyse in de edge verbetert en uitbreidt. Het platform is gebouwd met tech­no­logie van IOWN Global Forum en gebruikt Red Hat OpenShift, het toon­aan­ge­vende hybride cloud appli­ca­tie­plat­form aange­dreven door Kuber­netes, als basis. De oplossing is erkend als Proof of Concept door het IOWN Global Forum voor haar inzet­baar­heid en use cases. 

Net als AI kennen detec­tie­tech­no­logie en netwer­k­in­no­vatie een snelle groei. Het gebruik van AI-analyse om input in de edge te beoor­delen wordt bijgevolg cruciaal, vooral omdat data­bronnen bijna dagelijks uitbreiden. Echter, AI-analyse op grote schaal gebruiken kan soms traag en complex zijn. Bovendien wordt het soms geas­so­ci­eerd met hoge onder­houds­kosten en software-onderhoud om de nieuwe AI-modellen en extra hardware aan boord te halen. Dankzij nieuwe edge computing func­ti­o­na­li­teiten in veraf­ge­legen plaatsen, kan AI-analyse vandaag dichter bij de sensoren worden geplaatst, wat goed is voor de band­breedte en latentie. 

De oplossing maakt gebruik van het IOWN All-Photonics netwerk (APN) en data­pijp­lijn versnel­lings­tech­no­logie in de IOWN Data-Centric infra­struc­tuur (DCI). De versnelde data­pijp­lijn voor AI van NTT gebruikt Remote Direct Memory Access (RDMA) boven APN om doel­tref­fend grote hoeveel­heden data van de sensoren in de edge te verza­melen en te verwerken. Contai­ner­tech­no­logie van Red Hat OpenShift biedt meer flexi­bi­li­teit om workloads in de versnelde data­pijp­lijn te bedienen over verschil­lende locaties en veraf­ge­legen data­cen­ters heen. NTT en Red Hat hebben aange­toond dat deze oplossing met succes energie bespaart, en bovendien lagere latentie biedt voor real-time AI-analyse in de edge.

De Proof of Concept evalu­eerde een real-time AI-analyse platform met Yokosuka City voor de sensor­in­stal­latie, en met Musashino City voor de afgelegen data center. Beide waren gecon­nec­teerd via APN. Het gevolg: zelfs wanneer grote hoeveel­heden camera’s werden onder­ge­bracht, was de vertra­ging om data uit de sensoren samen te brengen voor AI-analyse tot 60% minder dan andere conven­ti­o­nele AI workloadbeheerders. 

Bovendien kon de IOWN POC aantonen dat tot 40% energie kon worden bespaard voor AI-analyse voor elke camera in de edge verge­leken met stan­daard­tech­no­logie. Dankzij dit real-time AI-analyse platform kunnen GPU’s worden opge­schaald om grote hoeveel­heden camera’s te beheren zonder dat de CPU een bott­le­neck wordt. Volgens een proef­be­re­ke­ning die ervan uitgaat dat 1.000 camera’s worden beheerd, kan tot 60% van de energie worden bespaard. 

De hoog­te­punten van de Proof of Concept zijn:

  • Versnelde data­pijp­lijn voor AI
  • Groot­scha­lige AI-data-analyse in real-time
  • Deze POC gebruikt NVIDIA A100 Tensor Core GPUs en NVIDIA ConnectX‑6 NICs voor AI
  • Deze oplossing helpt de basis te leggen voor slimme AI-tech­no­lo­gieën die bedrijven helpt op te schalen. Met deze oplossing kunnen orga­ni­sa­ties genieten van:
  • Minder overhead kosten gelinkt aan het verza­melen van grote hoeveel­heden data;
  • Betere data­ver­za­me­ling die kan worden uitge­wis­seld tussen stede­lijke gebieden en veraf­ge­legen data centers voor een snelle AI-analyse;
  • De moge­lijk­heid om lokale en mogelijks hernieuw­bare energie te gebruiken, zoals zonne- of windenergie;
  • Grotere terrein­be­vei­li­ging met video camera’s als sensoren.

Pin It on Pinterest

Share This