Red Hat AI Enterprise brengt AI samen op één platform

25 februari 2026

Red Hat, leve­ran­cier van open source-oplos­singen, kondigt vandaag Red Hat AI Enter­prise aan, een geïn­te­greerd AI-platform om AI-modellen, agents en toepas­singen uit te rollen en te beheren in de hybride cloud. De nieuwe oplossing wordt geïn­te­greerd in het Red Hat AI-portfolio, met daarin Red Hat AI Inference Server, Red Hat OpenShift AI en Red Hat Enter­prise Linux AI.

Red Hat intro­du­ceert daarnaast ook Red Hat AI 3.3, met belang­rijke updates en verbe­te­ringen in het volledige AI-portfolio van het bedrijf. Samen vormen deze oplos­singen een volledige “metal-to-agent”-stack: van de tech­ni­sche basis tot geavan­ceerde agents. Zo kunnen orga­ni­sa­ties door­groeien van losse AI-tests naar een beheerde, autonome omgeving.

Nu de uitgaven aan enter­prise AI tegen 2029 naar verwach­ting zullen oplopen tot meer dan $1 biljoen, en dat in grote mate gedreven door agen­ti­sche AI-toepas­singen, verschuiven orga­ni­sa­ties hun strategie naar effi­ci­ën­tere agen­ti­sche processen. Toch blijven veel orga­ni­sa­ties door versnip­perde tools en een wisse­lende tech­ni­sche basis steken in de pilotfase. Red Hat AI Enter­prise pakt dat aan door de levens­cy­clus van modellen en toepas­singen samen te brengen, zodat IT-teams AI kunnen beheren als een gestan­daar­di­seerd systeem voor de onder­ne­ming in plaats van als een losstaand project. Daardoor wordt AI-uitrol even betrouw­baar en herhaal­baar als tradi­ti­o­nele bedrijfssoftware.

Red Hat AI Enterprise: de basis voor AI in productie

Red Hat AI Enter­prise biedt een reeks AI-func­ti­o­na­li­teiten, waaronder snelle AI-verwer­king, het afstemmen en aanpassen van modellen, en de uitrol en het beheer van agents. Elk model en type hardware kan worden onder­steund in elke omgeving. Met Red Hat OpenShift als motor, het toon­aan­ge­vende appli­ca­tie­plat­form voor de hybride cloud op basis van Kuber­netes, biedt Red Hat AI Enter­prise een sterk schaal­bare en meer consis­tente ervaring.

Red Hat AI Enter­prise vormt bovendien de basis voor de hybride cloud in de vandaag aange­kon­digde Red Hat AI Factory met NVIDIA. NVIDIA’s software wordt ingezet voor versnelde reken­kracht om productie-AI bij onder­ne­mingen sneller te realiseren.

Belang­rijke voordelen van Red Hat AI Enter­prise zijn:

- Snellere, kosten­ef­fi­ci­ën­tere en schaal­bare AI-verwer­king met de vLLM-inference-engine en het llm‑d distri­buted inference framework voor een geop­ti­ma­li­seerde uitrol van gene­ra­tieve AI-modellen over hybride hardwareomgevingen.

- Geïn­te­greerde moni­to­ring en levens­cy­clus­be­heer om de AI-werking beter te sturen en risico’s te beperken met een geïn­te­greerde, geteste en inter­o­pe­ra­bele AI-stack op ondernemingsniveau.

- Flexi­bi­li­teit over de hybride cloud heen doordat orga­ni­sa­ties AI-modellen, agents en toepas­singen consis­tenter kunnen uitrollen en beheren waar hun business die nodig heeft, onder­steund door vertrouwde Red Hat-platformen.

Strategische flexibiliteit en efficiëntie met Red Hat AI 3.3

Red Hat wil de kloof tussen bedrijfs­kri­ti­sche stabi­li­teit en grens­ver­leg­gende innovatie over­bruggen via één uniform platform. De nieuwste soft­wa­re­versie van Red Hat AI breidt de model­keuze uit, verbetert de afstem­ming over de volledige stack voor chips van de volgende generatie en versterkt de opera­ti­o­nele consis­tentie voor frontier-modellen.

Nieuwe functies en verbe­te­ringen omvatten:

- Een uitge­breider Red Hat AI-model-ecosys­teem met geva­li­deerde, produc­tieklare gecom­pri­meerde versies van Mistral-Large‑3, Nemotron-Nano en Apertus-8B-Instruct, beschik­baar via de OpenShift AI Catalog. Daarnaast maakt deze release de uitrol mogelijk van state-of-the-art-modellen zoals Ministral 3 en DeepSeek-V3.2 met sparse attention, en levert ze multi­mo­dale verbe­te­ringen op, waaronder een drie keer snellere Whisper, geospa­tiale onder­steu­ning, verbe­terde EAGLE specu­la­tive decoding en verbe­terde tool calling voor agen­ti­sche werkstromen.

- Self­ser­vice-toegang tot AI-modellen met een tech­no­logy preview van Models-as-a-Service (MaaS). IT-teams kunnen self­ser­vice-toegang bieden tot privaat gehoste modellen via een API-gateway. Deze gecen­tra­li­seerde aanpak zorgt ervoor dat AI on-demand beschik­baar is voor interne gebrui­kers en creëert een direct inzetbare AI-basis die private en schaal­bare AI-adoptie binnen de onder­ne­ming stimuleert.

- Uitge­breide hard­wa­re­on­der­steu­ning, waaronder een tech­no­logy preview van gene­ra­tieve AI-onder­steu­ning op CPU’s, te beginnen met Intel CPU’s voor kosten­ef­fi­ci­ën­tere infe­rentie van small language models (SLM’s). Daarnaast heeft het platform zijn hard­wa­re­cer­ti­fi­ce­ring uitge­breid voor NVIDIA’s Blackwell-archi­tec­tuur (B300) en onder­steu­ning voor AMD MI325X-accelerators.

- Een geüni­fi­ceerde data-naar-model-levens­cy­clus, beveiligd door de nieuwe Red Hat AI Python Index. Deze vertrouwde repo­si­tory levert geharde versies op onder­ne­mings­ni­veau van kritieke tools, waaronder Docling, SDG Hub, en Training Hub, zodat teams kunnen door­groeien van versnip­perde expe­ri­menten naar herhaal­bare, bevei­li­gings­ge­richte productie-pijplijnen

- Uitge­breide moni­to­ring en veilig­heid voor AI met meer zicht op model­ge­zond­heid, pres­ta­ties en gedrag. Dit biedt realtime tele­me­trie over AI-workloads, llm-d-deploy­ments en Models-as-a-Service (MaaS)-cluster- en model­ge­bruik en wordt gecom­bi­neerd met een tech­no­logy preview van geïn­te­greerde NeMo Guard­rails, zodat ontwik­ke­laars opera­ti­o­nele veilig­heid en afstem­ming over AI-inter­ac­ties heen kunnen afdwingen.

- On-demand toegang tot GPU-resources bieden door orga­ni­sa­ties in staat te stellen hun eigen interne GPU-as-a-Service-moge­lijk­heden uit te rollen via slimme orkestratie en gedeelde hard­wa­re­toe­gang met auto­ma­ti­sche check­poin­ting om de status van lang­lo­pende trai­nings­jobs op te slaan, werk­ver­lies te voorkomen en reken­kosten voor­spel­baarder te houden, zelfs in erg dyna­mi­sche of preemp­tible omgevingen.

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat: “Om met AI echte bedrijfs­waarde te creëren, moet AI opera­ti­o­neel ingebed worden als een kern­on­der­deel van de enter­prise soft­wa­restack, niet als een losstaande silo. Red Hat AI Enter­prise is ontworpen om de kloof tussen infra­struc­tuur en innovatie te over­bruggen met één uniform platform van metal tot agent. Door geavan­ceerde afstem­ming en agen­ti­sche moge­lijk­heden te combi­neren met de toon­aan­ge­vende basis van Red Hat Enter­prise Linux en Red Hat OpenShift, bieden we de volledige stack, van GPU-versnelde hardware tot de modellen en agents die de bedrijfs­lo­gica aansturen. Daarnaast kunnen orga­ni­sa­ties met Red Hat AI 3.3 voorbij versnip­perde pilots gaan naar beheerde, herhaal­bare en perfor­mante AI-operaties over de hybride cloud heen.”

Pin It on Pinterest

Share This