Cloudflare vereenvoudigt ontwikkeling en toepassing AI-applicaties in samenwerking met Databricks, Hugging Face en Meta

29 september 2023

Cloud­flare heeft deze week bekend­ge­maakt dat ze het server­loze ontwik­ke­laars­plat­form gaan uitbreiden met func­ti­o­na­li­teit om het ontwik­kelen en toepassen van zakelijke AI-appli­ca­ties verder te vereen­vou­digen. Daarvoor gaat deze wereld­wijde aanbieder van cloud­con­nec­ti­vi­teit nauwer samen­werken met Data­bricks, Hugging Face en Meta. 

Databricks

Data­bricks en Cloud­flare werken al samen om de AI-levens­cy­clus te vereen­vou­digen door het delen van data eenvou­diger en betaal­baarder te maken via Delta Sharing met R2-storage. Cloudflare’s R2-storage is een zero egress, gedis­tri­bu­eerd object storage-aanbod, dat datateams in staat stelt om live datasets en AI-modellen te delen met Data­bricks, gemak­ke­lijk en efficiënt, zonder de noodzaak voor complexe data transfers of dupli­ca­ties van datasets, en met nul egresskosten.

Beide bedrijven breiden hun samen­wer­king uit om MLflow-moge­lijk­heden naar ontwik­ke­laars te brengen die bouwen op Cloudflare’s server­loze ontwik­ke­laars­plat­form. Cloud­flare sluit zich aan bij het open source MLflow-project als actieve deelnemer om de kloof te over­bruggen tussen het trainen van modellen en het eenvoudig toepassen ervan op Cloudflare’s wereld­wijde netwerk. Daarop kunnen AI-modellen dicht bij eind­ge­brui­kers draaien voor een ‘low-latency’ ervaring. 

In de nieuwe samen­wer­kings­fase op het gebied van MLflow, zorgen Cloud­flare en Data­bricks voor een snelle en eenvou­dige imple­men­tatie van AI-modellen naar Edge. MLflow is een open-source platform voor het beheer van de levens­cy­clus van machine learning (ML), gemaakt door Data­bricks. Het is een platform geworden voor end-to-end MLOps, waarmee teams van elke omvang elk model kunnen volgen, delen, verpakken en inzetten voor batch of real-time infe­rentie. Dankzij deze nieuwe samen­wer­king kunnen ontwik­ke­laars modellen trainen met behulp van het data­cen­tri­sche AI-platform van Data­bricks en deze vervol­gens toepassen op het ontwik­ke­laars­plat­form en wereld­wijde netwerk van Cloud­flare, waar hyper­lo­kale infe­rentie aan de rand wordt ingezet om de AI-levens­cy­clus te voltooien. 

Hugging Face

Cloud­flare gaat met Hugging Face samen­werken om het gebruik van de beste open AI-modellen toegan­ke­lijker en betaal­baarder te maken voor ontwik­ke­laars. Cloud­flare wordt de eerste server­loze GPU voor­keurs­partner voor het gebruik van Hugging Face-modellen. Daardoor kunnen ontwik­ke­laars snel en eenvoudig wereld­wijd AI inzetten, zonder dat zij zich zorgen hoeven te maken over het beheer van de infra­struc­tuur en zonder te betalen voor onge­bruikte reken­ca­pa­ci­teit. Hugging Face gaat ook geop­ti­ma­li­seerde gene­ra­tieve AI-modellen aanbieden voor Cloudflare’s nieuwe AI-inferentieplatform.

Gene­ra­tieve AI zorgt voor een verschui­ving in de wijze waarop bedrijven werken en de toepas­singen die mogelijk zijn. Tot nu toe hadden bedrijven die hun producten wilden uitbreiden of bouwen met AI maar twee opties: vertrouwen op prop­ri­ë­taire black box-modellen die alleen beschik­baar waren via betaalde API’s, of experts worden in het toepassen, beheren en schalen van open AI-modellen op een speciale infra­struc­tuur. Hugging Face’ modelhub gecom­bi­neerd met Cloudflare’s gedis­tri­bu­eerde edge-netwerk maakt het eenvou­diger dan ooit om op een betaal­bare wijze schaal­bare AI-toepas­singen te bouwen. 

Meta 

Cloud­flare gaat met Meta samen­werken om het Llama 2 open source large language model (LLM) wereld­wijd beschik­baar te maken voor ontwik­ke­laars die AI-toepas­singen willen bouwen op het server­loze Cloud­flare Workers platform. Daarmee kunnen de beide partners lokale infe­ren­ties voor iedereen aanbieden, waarbij de privacy voorop staat.

Tot voor kort was de enige manier om toegang te krijgen tot een LLM het gebruiken van prop­rietary modellen. Het opleiden van LLM’s is een serieuze inves­te­ring, in tijd, computers en kapitaal en dus niet zomaar toegan­ke­lijk voor veel ontwik­ke­laars. Meta’s openbaar beschik­bare Llama 2 heeft al een grote verschui­ving teweeg­ge­bracht, waardoor ontwik­ke­laars ook eigen LLM’s kunnen uitvoeren en toepassen. Dit vereist echter nog steeds toegang tot en beheer van de infra­struc­tuur om de LLM uit te voeren.

Vanaf nu hebben ruim een miljoen ontwik­ke­laars die al Cloudflare’s platform gebruiken toegang tot een toon­aan­ge­vende LLM om appli­ca­ties te verrijken. Het gedis­tri­bu­eerde edge-netwerk gaat ontwik­ke­laars overal in staat stellen om toepas­singen met Llama 2 te bouwen. In combi­natie mer Cloudflare’s Data Loca­li­za­tion Suite kunnen ze dit doen terwijl ze contro­leren waar hun data wordt verwerkt. Cloudflare’s privacy-first bena­de­ring van appli­ca­tie­ont­wik­ke­ling kan bedrijven helpen het vertrouwen van klanten te behouden door ervoor te zorgen dat data die wordt gebruikt voor infe­rentie niet wordt ingezet voor het trainen of verbe­teren van de LLM.

Pin It on Pinterest

Share This