Nieuwste versie van Red Hat OpenShift AI versnelt schaalbaarheid en flexibiliteit van AI

13 november 2024

Red Hat lanceert Red Hat OpenShift AI 2.15. Dit AI/ML-platform, gebouwd op Red Hat OpenShift, biedt bedrijven een krachtige, schaal­bare oplossing voor het ontwik­kelen en inzetten van AI-toepas­singen over de hybride cloud heen. Met deze nieuwe versie krijgen bedrijven nog meer flexi­bi­li­teit, afstem­mings­op­ties en trac­king­tools, wat hun AI-innovatie versnelt en het bevei­li­gings­ni­veau en de consis­tentie over publieke clouds heen, data­cen­ters en edge-omge­vingen versterkt.

Volgens IDC zal meer dan 40% van de IT-uitgaven van Forbes Global 2000-bedrijven naar AI-initi­a­tieven gaan. Daarnaast verwacht IDC dat bedrijven met gene­ra­tieve AI en auto­ma­ti­se­rings­tech­no­lo­gieën tegen 2026 $1 biljoen aan produc­ti­vi­teit kunnen reali­seren. Red Hat voorziet dat deze inves­te­ringen vragen om een robuust platform dat het levens­cy­clus van AI/ML-modellen kan beheren en Gen AI appli­ca­ties kan inzetten naast bestaande workloads binnen de hybride cloud.

Belangrijkste Features in OpenShift AI 2.15

- Model­re­gi­stratie: centraal beheer voor het delen, versie­be­heer en volgen van Gen AI modellen, inclusief meerdere model­re­gi­stra­ties. Red Hat heeft het project geschonken aan de Kubeflow-community.

- Data drift detectie: voort­du­rende moni­to­ring van inputdata om afwij­kingen te detec­teren tussen training data en live data, wat de betrouw­baar­heid en nauw­keu­rig­heid van modellen verhoogt.

- Bias detectie: tools om eerlijk­heid en trans­pa­rantie in modellen te bewaken, essen­tieel voor vertrouwen in AI, afkomstig uit de TrustyAI-gemeenschap.

- Effi­ci­ënte fine-tuning met LoRA: gebruik van low-rank adapters (LoRA) voor effi­ci­ënter afstemmen van LLMs, wat kosten en middelen bespaart.

- Onder­steu­ning voor NVIDIA NIM: versnelt de levering van gene­ra­tieve AI-toepas­singen via eenvoudig te gebruiken interface micro­ser­vices, geïn­te­greerd in het NVIDIA AI Enterprise-platform.

- AMD GPU-onder­steu­ning: biedt nieuwe opties voor model­ont­wik­ke­ling, bediening, training en tuning met AMD GPU’s, ideaal om de pres­ta­ties van inten­sieve reken­pro­cessen te verbeteren.

Verbeterde model serving

Red Hat OpenShift AI 2.15 tilt Gen AI model serving naar een hoger niveau met nieuwe functies zoals de vLLM-runtime voor KServe en onder­steu­ning voor KServe Modelcars. Dit betekent dat je nu Open Container Initi­a­tive (OCI)-repositories kunt gebruiken om gecon­tai­ne­ri­seerde modellen eenvoudig op te slaan en te beheren. Daarnaast zorgt de keuze tussen private en public routes voor endpoints in KServe ervoor dat orga­ni­sa­ties de bevei­li­ging van hun modellen kunnen verbe­teren door ze te richten op interne endpoints.

Uitgebreide AI training en experimentatie

De nieuwste OpenShift AI-update versterkt data­sience-pijp­lijnen en expe­ri­ment tracking met slimme verbe­te­ringen. Hyper­pa­ra­meter tuning via Ray Tune verhoogt de nauw­keu­rig­heid en versnelt het trainen van voor­spel­lende en gene­ra­tieve AI-modellen. Dankzij de toevoe­ging van basis­con­tai­ne­r­af­beel­dingen voor Ray-clusters kunnen trainings- en tuning­taken efficiënt worden verdeeld over meerdere workloads in het cluster. Dit versnelt niet alleen de verwer­kings­tijd, maar maxi­ma­li­seert ook het gebruik van beschik­bare nodes.

Beschikbaarheid

Red Hat OpenShift AI 2.15 is beschik­baar mid-november 2024. 

Pin It on Pinterest

Share This