Cloudera AI Inference Service met ingebedde NVIDIA NIM-microservices voor snellere ontwikkeling en implementatie van GenAI

10 oktober 2024

Cloudera intro­du­ceert Cloudera AI Inference, aange­stuurd door NVIDIA NIM-micro­ser­vices, onderdeel van het NVIDIA AI Enter­prise-platform. Als een van de eerste services voor AI-infe­rentie die inge­bouwde NIM-micro­ser­vi­ce­mo­ge­lijk­heden biedt, stroom­lijnt Cloudera AI Inference de imple­men­tatie en het beheer van groot­scha­lige AI-modellen. Daarmee kunnen orga­ni­sa­ties het volledige poten­tieel van hun data benutten, om GenAI van pilot­fases naar het opera­ti­o­neel gebruik te brengen.

Gevoelige data beschermen

Recente data van Deloitte onthult dat de grootste barrières voor GenAI-accep­tatie compliancerisico’s en gover­nance-zorgen zijn. Toch groeit de accep­tatie van GenAI gestaag en heeft ruim twee derde van de onder­vraagde orga­ni­sa­ties hun GenAI-budgetten in Q3 van dit jaar verhoogd. Om deze zorgen weg te nemen, moeten bedrijven over­stappen op het privé uitvoeren van AI-modellen en ‑appli­ca­ties, of dit nu on-premises of in openbare clouds is. Deze veran­de­ring vereist veilige en schaal­bare oplos­singen die complexe doe-het-zelf­be­na­de­ringen vermijden.

Cloudera AI Inference beschermt gevoelige data tegen lekken naar niet-private, door leve­ran­ciers gehoste AI-models­er­vices, door veilige ontwik­ke­ling en imple­men­tatie onder de controle van de eigen orga­ni­satie te bieden. De nieuwe service wordt aange­stuurd door NVIDIA-tech­no­logie en helpt bij het bouwen van vertrouwde data voor vertrouwde AI met hoge verwer­kings­snel­heden. Dit maakt effi­ci­ënte ontwik­ke­ling van AI-gestuurde chatbots, virtuele assis­tenten en agen­ti­sche appli­ca­ties mogelijk, wat zowel de produc­ti­vi­teit als de groei van orga­ni­sa­ties beïnvloedt.

Samenwerking met NVIDIA

De intro­ductie van Cloudera AI Inference volgt kort op de samen­wer­king van het bedrijf met NVIDIA. Het benadrukt Cloudera’s toewij­ding aan het stimu­leren van AI-innovatie op een cruciaal moment, nu bedrijven zich een weg banen door de complexi­teit van digitale trans­for­matie en AI-integratie.

Ontwik­ke­laars kunnen zakelijke LLM’s bouwen, aanpassen en imple­men­teren, met tot 36x snellere verwer­king door NVIDIA Tensor Core GPUs en bijna 4x sneller verge­leken met CPU’s. De gebrui­ker­s­er­va­ring inte­greert de UI en API’s recht­streeks met NVIDIA NIM micro­ser­vi­ce­con­tai­ners, waardoor de noodzaak voor opdracht­re­ge­lin­ter­faces (CLI) en afzon­der­lijke bewa­kings­sys­temen wordt geëli­mi­neerd. De service-inte­gratie met Cloudera’s AI Model Registry verbetert ook de bevei­li­ging en gover­nance door toegangs­con­troles, te beheren voor zowel model-eind­punten als ‑bewer­kingen. Gebrui­kers profi­teren van een uniform platform waar alle modellen, zowel LLM-imple­men­ta­ties als tradi­ti­o­nele modellen, worden beheerd met één service.

Tot de belang­rijke functies van Cloudera AI Inference behoren: 

  • Geavan­ceerde AI-moge­lijk­heden: gebruik NVIDIA NIM-micro­ser­vices om open-source LLM’s, waaronder LLama en Mistral, te opti­ma­li­seren voor geavan­ceerde ontwik­ke­lingen in natuur­lijke taal­ver­wer­king (NLP), computer vision en andere AI-domeinen.
  • Hybride cloud en privacy: verwerk workloads on-prem of in de cloud, met VPC-imple­men­ta­ties voor verbe­terde bevei­li­ging en naleving van regelgeving.
  • Schaal­baar­heid en moni­to­ring: vertrouw op auto­ma­ti­sche schaal­baar­heid, hoge beschik­baar­heid (HA) en realtime pres­ta­tie­trac­king, om problemen te detec­teren en te corri­geren en efficiënt resourcebeheer.
  • Open API’s en CI/CD-inte­gratie: krijg toegang tot API’s die voldoen aan stan­daarden voor de imple­men­tatie, beheer en moni­to­ring van modellen voor naadloze inte­gratie met CI/CD-pipelines en MLOps-workflows.
  • Zakelijk bevei­li­gings­ni­veau: dwing toegang tot modellen af met functies voor service-accounts, toegangs­con­trole, lineage en auditing.
  • Risi­co­be­heerde imple­men­tatie: voer A/​B‑testen en canary-uitrol uit voor gecon­tro­leerde modelupdates.

“Bedrijven willen graag inves­teren in GenAI, maar dat vereist niet alleen schaal­bare data, maar ook veilige, compliant en goed beheerde data”, aldus markt­ana­list Sanjeev Mohan. “Het op grote schaal in gebruik nemen van AI intro­du­ceert complexi­teit die DIY-bena­de­ringen moeilijk kunnen aanpakken. Cloudera AI Inference biedt uitkomst door geavan­ceerd data­be­heer te inte­greren met de AI-expertise van NVIDIA, waardoor het volledige poten­tieel van data te ontsluiten is en tege­lij­ker­tijd wordt beschermd. Met zakelijke bevei­li­gings­func­ties zoals service-accounts, toegangs­con­trole en audit kunnen orga­ni­sa­ties hun data met vertrouwen beschermen en workloads on-prem of in de cloud uitvoeren. Zo worden AI-modellen efficiënt geïm­ple­men­teerd met de benodigde flexi­bi­li­teit en governance.”

“Het verheugt ons samen te werken met NVIDIA om Cloudera AI Inference op de markt te brengen, waarmee we een enkel AI/ML-platform bieden dat bijna alle modellen en toepas­singen onder­steunt. Vanaf nu kunnen bedrijven zowel krachtige AI-apps maken met onze software, als die AI-apps ook in Cloudera uitvoeren”, zegt Dipto Chakra­varty, Chief Product Officer bij Cloudera. “Met de inte­gratie van NVIDIA AI, die slimmere besluit­vor­ming mogelijk maakt door geavan­ceerde pres­ta­ties, innoveert Cloudera voor klanten door vertrouwde AI-apps te bouwen met vertrouwde data op grote schaal.”

“Bedrijven moeten tegen­woordig gene­ra­tieve AI naadloos inte­greren met hun bestaande infra­struc­tuur aan data, om de resul­taten te stimu­leren”, aldus Kari Briski, vice president van AI-software, modellen en services bij NVIDIA. “Door NVIDIA NIM-micro­ser­vices op te nemen in Cloudera’s AI Inference-platform, stellen we ontwik­ke­laars in staat om eenvoudig betrouw­bare gene­ra­tieve AI-appli­ca­ties te maken en tege­lij­ker­tijd een zelf­voor­zie­nend AI-data­vlieg­wiel te faciliteren”.

Pin It on Pinterest

Share This