Red Hat en Meta werken samen aan open source AI voor bedrijven

31 juli 2025

Red Hat en Meta hebben een nieuwe samen­wer­king aange­kon­digd om gene­ra­tieve AI (Gen AI) toegan­ke­lijker, consis­tenter en goedkoper te maken voor bedrijven. 

Een eerste vorm van samen­wer­king tussen beide spelers begon met de onmid­del­lijke onder­steu­ning voor Meta’s nieuwste AI-model Llama 4, via Red Hat AI en vLLM, een open source AI-platform dat infe­rentie in grote taal­mo­dellen sneller laat draaien. 

Nu gaan beide bedrijven verder en bundelen ze hun krachten om de projecten Llama Stack en vLLM beter op elkaar af te stemmen. Zo willen ze het eenvou­diger en goedkoper maken voor bedrijven om open Gen AI-tech­no­logie te gebruiken en in te zetten.

Volgens Gartner “zal tegen 2026 meer dan 80 procent van de onaf­han­ke­lijke soft­wa­re­le­ve­ran­ciers AI inte­greren in hun bedrijfs­toe­pas­singen, tegenover slechts één procent vandaag.” Dat toont hoe groot de nood is aan open en betrouw­bare technologie. 

De samen­wer­king tussen Red Hat en Meta maakt  het mogelijk om Gen AI-toepas­singen soepel te laten draaien op verschil­lende plat­formen, cloud­dien­sten en AI-acce­le­ra­toren – vooral tijdens de fase waarin AI effectief gebruikt wordt: de inferentie.

De open samen­wer­king tussen Red Hat en Meta vertaalt zich in twee belang­rijke projecten:

- Llama Stack, ontwik­keld door Meta en beschik­baar als open source. Het biedt standaard bouw­stenen en koppe­lingen om AI-toepas­singen eenvou­diger te bouwen en te beheren.

- vLLM, waar Red Hat een voor­trek­kersrol in heeft. Een infe­ren­tie­server die de pres­ta­ties van Gen AI-modellen verbetert, waaronder ook Llama 4. 

Een gemeenschappelijke basis en keuzevrijheid voor AI-toepassingen

Binnen de samen­wer­king draagt Red Hat actief bij aan Llama Stack. Zo wordt het platform aantrek­ke­lijker voor ontwik­ke­laars die slimme AI-agenten willen bouwen met Red Hat AI. Dat past binnen Red Hats bredere aanpak: bedrijven de vrijheid geven om te kiezen uit meerdere AI-oplos­singen. Het doel is om een betrouw­bare en flexibele omgeving te bieden waarin bedrijven snel Gen AI-oplos­singen kunnen ontwik­kelen én gebruiken.

vLLM opent de weg naar betaalbare AI in bedrijven

vLLM heeft intussen al veel voor­uit­gang geboekt in het toegan­ke­lijk en goedkoper maken van krachtige Gen AI voor bedrijven. Het onder­steunt nu al de nieuwste generatie van Meta’s Llama-modellen, zoals Llama 4. Het maakt ook deel uit van het PyTorch-ecosys­teem, waar Meta en andere spelers samen­werken aan een open aanbod van tools voor AI. Dat maakt van vLLM een ideale oplossing om bedrijven te helpen het maximum te halen uit gene­ra­tieve AI.

Pin It on Pinterest

Share This