Cloudera werkt samen met Pinecone, NVIDIA en AWS Bedrock aan meer generatieve AI-functionaliteit voor klanten

17 november 2023

Om klanten te helpen gene­ra­tieve AI te gebruiken met eigen data en bedrijfs­con­text, inclusief bevei­li­ging en gover­nance, heeft Cloudera de volgende samen­wer­kingen rond gene­ra­tieve AI aange­kon­digd: met vector­da­ta­ba­se­le­ve­ran­cier Pinecone, fabrikant van AI-chips NVIDIA en AWS Bedrock, een nieuwe toolset voor het bouwen van gene­ra­tieve AI op AWS.

Pinecone AI-vectordatabase

Cloudera gaat met Pinecone samen­werken om de AI-vector­da­ta­base-expertise van het bedrijf te inte­greren in Cloudera’s open data­plat­form. Met als doel het trans­for­meren van de manier waarop orga­ni­sa­ties de kracht van AI benutten om processen te stroom­lijnen en klan­t­er­va­ringen te verbeteren.

Pinecone’s vector­da­ta­base is een belang­rijke basis voor gene­ra­tieve AI. Pinecone is geop­ti­ma­li­seerd om AI-repre­sen­ta­ties van data op te slaan (vector­in­bed­ding) en deze daarna op seman­ti­sche gelij­kenis te door­zoeken, iets waar tradi­ti­o­nele databases inef­fi­ciënt in zijn. Deze func­ti­o­na­li­teit is nood­za­ke­lijk voor het toevoegen van context aan query’s tegen toepas­singen die misbruik maken van Large Language Models (LLM’s). Die context vermin­dert het aantal foutieve resul­taten, aangeduid als ‘hallu­ci­na­ties’,  waardoor zoek- en gene­ra­tieve AI-appli­ca­ties antwoorden kunnen leveren die accuraat en relevant zijn.

Door de samen­wer­king van Cloudera met Pinecone kunnen orga­ni­sa­ties gemak­ke­lijker zeer schaal­bare, realtime, AI-aange­dreven appli­ca­ties op Cloudera bouwen en imple­men­teren. Dit omvat de release van een nieuw Applied ML Prototype (AMP) waarmee ontwik­ke­laars sneller nieuwe kennis­banken kunnen creëren en uitbreiden op basis van data op hun eigen website, evenals vooraf gebouwde connec­toren waarmee klanten sneller invoer­pijp­lijnen in AI-appli­ca­ties kunnen opzetten. In de nieuwe AMP gebruikt de vector­da­ta­base van Pinecone deze kennis­banken om context in de reacties van chatbots te brengen, waardoor nuttige resul­taten worden gegarandeerd.

Klanten kunnen dezelfde archi­tec­tuur benutten om support­chat­bots of interne support­zoek­sys­temen op te zetten, of te verbe­teren. Deze dragen bij aan het verder verlagen van de opera­ti­o­nele kosten omdat er minder mense­lijke inspan­ningen nodig zijn voor de afhan­de­ling van vragen, terwijl de klan­t­er­va­ring te verbe­teren is met snellere responsetijden.

Ondersteuning NVIDIA AI-technologieën

Cloudera breidt ook de onder­steu­ning voor belang­rijke NVIDIA AI-tech­no­lo­gieën in publieke en private clouds uit, om klanten in staat te stellen op een effi­ci­ënte wijze de beste AI-appli­ca­ties te bouwen en te imple­men­teren. Deze nieuwe fase in de samen­wer­king tussen beide bedrijven voegt multi­ge­ne­ra­ti­o­nele GPU-moge­lijk­heden toe voor data-engi­nee­ring, ML en AI in publieke en private clouds.

Cloudera Machine Learning (CML) is een service van het Cloudera Data Platform die orga­ni­sa­ties in staat stelt eigen AI-appli­ca­ties te creëren. Ze kunnen het poten­tieel van open-source Large Language Models (LLM’s) ontsluiten door eigen data-assets te gebruiken voor veilige en contex­tueel accurate reacties. Die CML-service onder­steunt nu de geavan­ceerde NVIDIA H100 GPU, in openbare clouds en in data­cen­ters. 
NVIDIA’s volgende generatie GPU versterkt het data­plat­form van Cloudera, waardoor snellere inzichten en effi­ci­ën­tere gene­ra­tieve AI-workloads mogelijk zijn. Dit resul­teert in de moge­lijk­heid om modellen op grotere datasets te verfijnen en grotere modellen in productie te hosten. De bevei­li­ging en gover­nance van CML op bedrijfs­ni­veau betekent dat bedrijven de kracht van NVIDIA GPU’s kunnen benutten zonder conces­sies te doen aan de gegevensbeveiliging.

Cloudera Data Engi­nee­ring (CDE) is een data­ser­vice waarmee gebrui­kers betrouw­bare en produc­tieklare data­pijp­lijnen kunnen bouwen van sensoren, sociale media, marketing, betaling, HR, ERP, CRM of andere systemen op het open data lakehouse. Met inge­bouwde bevei­li­ging en gover­nance en geor­ke­streerd met Apache Airflow, een open source-project voor het bouwen van pijp­lijnen in machine learning.

Via de NVIDIA Spark RAPIDS-inte­gratie in CDE is het extra­heren, trans­for­meren en laden van workloads (ETL) te versnellen zonder dat refac­to­ring nodig is. Bestaande Spark ETL-appli­ca­ties zijn 7x te versnellen en tot 16x bij speci­fieke queries, verge­leken met standaard CPU’s (op basis van interne bench­marks). Hierdoor kunnen klanten van NVIDIA profi­teren van GPU’s in upstream data­ver­wer­kings­pijp­lijnen, waardoor het gebruik van die GPU’s toeneemt en een hoger inves­te­rings­ren­de­ment wordt bereikt.

AWS Bedrock

Cloudera heeft onlangs ook een Strategic Colla­bo­ra­tion Agreement (SCA) onder­te­kend met Amazon Web Services, Inc. (AWS). Deze SCA versterkt de relatie van Cloudera met AWS en benadrukt de geza­men­lijke inzet om cloud-native data­be­heer en data-analyse op AWS te versnellen en op te schalen. Op basis van genoemde over­een­komst gaat Cloudera AWS-services inzetten om klanten de kans te bieden continu te innoveren en hun kosten te verlagen met Cloudera open data lakehouse op AWS, voor gene­ra­tieve AI. Een voorbeeld daarvan is de volledig beheerde server­loze service Amazon Bedrock.

Cloudera benut de kracht van Amazon Bedrock om klanten de moge­lijk­heid te bieden snel en eenvoudig gene­ra­tieve AI-appli­ca­ties te bouwen met nieuwe Cloudera-functies. Met de algemene beschik­baar­heid van Amazon Bedrock brengt Cloudera zijn nieuwste Applied ML-prototype (AMP) uit. Deze is gebouwd met Cloudera Machine Learning: CML Text Summa­ri­za­tion AMP en Amazon Bedrock. Met AMP kunnen klanten basis­mo­dellen gebruiken die beschik­baar zijn in Amazon Bedrock voor tekst­sa­men­vat­ting van data die in Cloudera Public Cloud op AWS en in Cloudera Private Cloud on-premise worden beheerd.

Pin It on Pinterest

Share This