Red Hat kondigt vandaag de algemene beschikbaarheid aan van Red Hat Enterprise Linux (RHEL) AI in hybride cloudomgevingen. RHEL AI is een platform voor funderingsmodellen waarmee gebruikers op gestroomlijnde wijze hun enterprise-applicaties kunnen versterken met het ontwikkelen, testen en uitvoeren van generatieve AI-modellen. Het platform combineert de open source-gelicentieerde Granite-reeks van LLM-modellen met InstructLab-tools voor modelaanpassingen, gebaseerd op de LAB-methode (Large-scale Alignment for chatBots). RHEL AI wordt geleverd als een startklare RHEL-image voor individuele deployments op servers in hybride cloud-omgevingen.
De kosten van de aanschaf, training en fine-tuning van LLM’s kunnen astronomisch groot zijn. Volgens een rapport van Stanford kan het wel $200 miljoen kosten om een model voor te bereiden op ingebruikname. Dat is nog exclusief de kosten van de benodigde afstemming op de specifieke gegevens en behoeften van een organisatie, waar doorgaans gespecialiseerde datawetenschappers of developers voor nodig zijn.
Een open source-aanpak voor generatieve AI
Om de potentie van generatieve AI waar te maken, moet deze technologie breder toegankelijk worden. Red Hat gelooft dat dit mogelijk is met behulp van kleinere, efficiëntere en oplossingsgerichte AI-modellen in combinatie met cloud-native applicaties. Een open source-aanpak kan hierin ondersteunen. Open source-communities helpen namelijk al tientallen jaren om soortgelijke problemen aan te pakken, zodat software-oplossingen betaalbaar en toegankelijk blijven voor een zo breed mogelijke doelgroep.
RHEL AI ondersteunt deze aanpak op meerdere manieren:
- Ondersteuning van generatieve AI-innovatie die is toegespitst op de behoeften van enterprises met behulp van open source-gelicentieerde Granite-modellen.
- Afstemming van generatieve AI-modellen op bedrijfsbehoeften met behulp van de InstructLab-tooling, zodat interne experts zelfstandig kunnen bijdragen, zonder dat ze daarvoor gespecialiseerde datawetenschappers hoeven te worden.
- Training en finetuning van generatieve AI in de hybride cloud door alle benodigde tools te leveren die nodig zijn voor het afstemmen en implementeren van modellen op productieservers. RHEL AI koppelt ook met Red Hat OpenShift AI om deze modellen op grotere schaal te trainen, finetunen en implementeren.
RHEL AI komt met alle voordelen van een Red Hat-abonnement, waaronder de distributie van betrouwbare producten, 24/7 productie-ondersteuning, verlengde lifecycle-ondersteuning van modellen, vrijwaring van intellectueel eigendom van modellen en rechtsbescherming onder Red Hats Open Source Assurance-beleid.
Brede beschikbaarheid voor hybride cloudomgevingen
Een consistent platform voor funderingsmodellen dat zich van datacenter tot edge dicht bij de data van een organisatie bevindt, is cruciaal in succesvolle AI-productiestrategieën. RHEL AI ondersteunt daarom vrijwel iedere denkbare bedrijfsomgeving – van on-premises datacenter tot edge-omgeving tot alle grote public clouds.
RHEL AI is vanaf vandaag algemeen beschikbaar via het Red Hat Customer Portal voor on-premises-implementatie of om te uploaden in Amazon Web Services en IBM Cloud als “bring your own subscription”-optie (BYOS). BYOS-mogelijkheden voor Microsoft Azure en Google Cloud Platform staan gepland voor Q4 2024. RHEL AI wordt naar verwachting later dit jaar ook beschikbaar als dienst op IBM Cloud.
Dell en Red Hat: Hardwareoptimalisatie voor RHEL AI
De komende maanden is Red Hat bovendien van plan om de beschikbaarheid van RHEL AI uit te breiden naar meer cloud- en hardwarepartners, voor nog meer keuzevrijheid in hybride cloudomgevingen.
Een van de eerste samenwerkingen is met Dell, met als doel RHEL AI tot een voorkeursplatform te maken voor de Dell PowerEdge R760xa-servers. Deze samenwerking zorgt voor een consistente ervaring op geoptimaliseerde, AI-gebaseerde hardwareoplossingen en helpt organisaties om sneller succesvolle AI-strategieën op grote schaal te implementeren.