Cloudera introduceert accelerators voor machine learning-projecten (AMP’s)

12 september 2024

Cloudera heeft zes ‘Acce­le­ra­tors for ML Projects’ (AMP’s) aange­kon­digd, ontworpen om de time-to-value voor zakelijke AI-toepas­singen te verkorten. Deze toevoe­gingen zijn erop gericht om bedrijven te voorzien van de nieuwste AI-tech­nieken en ‑voor­beelden binnen Cloudera, die de AI-inte­gratie kunnen onder­steunen en meer impact­volle resul­taten kunnen opleveren.

AMP’s zijn op machine learning (ML) geba­seerde complete projecten die met een enkele klik vanaf het Cloudera-platform kunnen worden geïm­ple­men­teerd. Elke AMP bevat best practices voor het aanpakken van complexe ML-uitda­gingen met workflows die naadloze tran­si­ties mogelijk maken, ongeacht waar bedrijven hun voor­beelden uitvoeren of data inzetten.

Met de toege­voegde AMP’s gaat Cloudera AI toegan­ke­lijker maken, zodat bedrijven de adoptie kunnen versnellen en de waarde van zowel hun eigen data als de gege­ne­reerde AI-output kunnen maxi­ma­li­seren. De nieuwste AMP’s en updates omvatten:

  • Fine-Tuning Studio – Biedt gebrui­kers een alles­om­vat­tende appli­catie en een ‘ecosys­teem’ voor het beheren, opti­ma­li­seren en evalueren van LLM’s.
  • RAG with Knowledge Graph – Een demon­stratie van hoe een RAG-toepas­sing (Retrieval Augmented Gene­ra­tion) te voeden is via een kennis­gra­fiek, om relaties en context vast te leggen die niet eenvoudig toegan­ke­lijk zijn via alleen vectoropslag.
  • Prompt­Brew – Biedt AI-geba­seerde hulp om goed pres­te­rende en betrouw­bare prompts te creëren via een eenvou­dige gebruikersinterface.
  • Document Analysis with Cohere CommandR and FAISS – Toont RAG met CommandR als LLM en FAISS als vectoropslag.
  • Chat with Your Document – Voort­bou­wend op de vorige LLM Chatbot Augmented with Enter­prise Data AMP, verbetert deze acce­le­rator de reacties van een LLM met behulp van context uit een interne kennis­bank die is gemaakt op basis van de docu­menten die door de gebruiker zijn geüpload. 

Behalve versnel­lers van AI-projecten zijn Cloudera AMP’s volledig open source en bevatten ze instruc­ties  voor het imple­men­teren in elke omgeving. Dit bevestigt Cloudera’s betrok­ken­heid bij de open source-gemeenschap.

“Hoewel vrijwel elk bedrijf expe­ri­men­teert met gene­ra­tieve AI, is de tech­no­logie nog zo nieuw dat er maar weinig best practices voor zakelijke toepas­singen bestaan”, zegt Steven Dickens, Chief Tech­no­logy Advisor van The Futurum Group. “Als gevolg hiervan is het voor data-scien­tists en AI-engineers gebrui­ke­lijk om bij de start van nieuwe AI-projecten voort te bouwen op bestaande voor­beelden. Er kleven echter veel nadelen aan deze aanpak, zoals extra veilig­heids- en juri­di­sche risico’s. AMP’s nemen de nadelen weg door volledig gebouwde, complete oplos­singen te bieden. Deze bieden data-scien­tists een kant-en-klare MVP voor verschil­lende AI-gebruiksscenario’s die bewezen effectief zijn en snel waarde kunnen genereren.”

“In de huidige markt hebben bedrijven beperkte tijd en middelen om AI-projecten te initiëren”, zegt Dipto Chakra­varty, Chief Product Officer bij Cloudera. “Daarom zijn onze AMP’s kata­ly­sa­toren om de reali­satie van AI-projecten van concept naar realiteit te versnellen, met kant-en-klare oplos­singen en werk­voor­beelden. Met als voordelen dat de toepas­singen betrouw­baar en kosten­ef­fec­tief zijn, terwijl de ontwik­kel­tijd wordt verkort. Hierdoor kan men snel de beoogde produc­ti­vi­teits- en effi­ci­ën­tie­winst van AI-initi­a­tieven ervaren.”

Lees hier nog meer infor­matie over hoe de AMP’s van Cloudera AI-toepas­singen kunnen versnellen. 

Pin It on Pinterest

Share This