Cloudflare vereenvoudigt wereldwijde implementatie AI-toepassingen vanuit Hugging Face

3 april 2024

Cloudflare maakt bekend dat ontwikkelaars nu met één klik AI-toepassingen kunnen inzetten op haar wereldwijde netwerk, direct vanuit Hugging Face, het toonaangevende open platform voor AI-ontwikkelaars. Met de beschikbaarheid van Workers AI, is Cloudflare de eerste serverloze inferentiepartner die in de Hugging Face Hub is geïntegreerd voor het inzetten van modellen. Hierdoor kunnen ontwikkelaars snel, eenvoudig en betaalbaar AI wereldwijd inzetten, zonder infrastructuur te beheren of te betalen voor ongebruikte rekencapaciteit. 

AI-toepassingen sneller implementeren

Ondanks de vooruitgang op het gebied van AI-innovatie, is er nog steeds een kloof tussen het potentieel en de waarde die het bedrijven biedt. Organisaties en hun ontwikkelaars moeten snel en betaalbaar kunnen experimenteren en itereren, zonder dat ze GPU’s of infrastructuur hoeven op te zetten, te beheren of te onderhouden. Bedrijven hebben behoefte aan een eenvoudig platform dat toegang geeft tot snelheid, beveiliging, prestaties, observeerbaarheid en compliance, om innovatieve, productieklare applicaties sneller naar hun klanten te brengen.

Workers AI is beschikbaar met GPU’s in ruim 150 steden 

Workers AI is nu algemeen beschikbaar en biedt de ‘end-to-end’ infrastructuur die nodig is om AI-modellen efficiënt en betaalbaar te schalen en in te zetten voor de volgende generatie AI-toepassingen. Cloudflare heeft GPU’s geïmplementeerd in ruim 150 steden wereldwijd, onlangs nog in Kaapstad, Durban, Johannesburg en Lagos voor de eerste locaties in Afrika, evenals Amman, Buenos Aires, Mexico City, Mumbai, New Delhi en Seoul. Deze maken AI-inference met lage latentie mogelijk in de hele wereld. Workers AI breidt zich ook uit om gefinetunede modellen te ondersteunen, waardoor organisaties meer gespecialiseerde, domeinspecifieke toepassingen kunnen ontwikkelen en implementeren. 

Als aanvulling op Workers AI biedt Cloudflare’s AI Gateway een ‘control plane’ voor AI-applicaties, waarmee ontwikkelaars dynamisch verzoeken kunnen evalueren en routeren naar verschillende modellen en providers. Dat stelt ontwikkelaars in staat data te gebruiken voor finetuning en deze workloads direct op het Workers AI-platform uit te voeren. 

“De populariteit van generatieve AI heeft ervoor gezorgd dat bedrijven in verschillende sectoren enorme hoeveelheden tijd en geld investeren in AI. Sommige toepassingen zullen werken, maar de grote uitdaging van AI is dat de demo makkelijk is, maar het in productie nemen is ongelooflijk complex”, zegt Matthew Prince, CEO en medeoprichter van Cloudflare. “Wij kunnen dit oplossen door de kosten en complexiteit van het ontwikkelen van AI-apps weg te reduceren. Workers AI is een van de meest betaalbare en toegankelijke oplossingen om inferentie uit te voeren. Met Hugging Face en Cloudflare die op één lijn zitten om AI op een eenvoudige, betaalbare manier te democratiseren, geven we ontwikkelaars de vrijheid en flexibiliteit om een model te kiezen en hun AI-apps in een handomdraai van nul naar wereldwijd te schalen.”

Cloudflare maakt implementatie met één klik vanuit Hugging Face mogelijk

Nu Workers AI algemeen beschikbaar is, kunnen ontwikkelaars AI-modellen met één klik direct vanuit Hugging Face implementeren, voor de snelste manier om toegang te krijgen tot een verscheidenheid aan modellen en inferentie-aanvragen uit te voeren op Cloudflare’s wereldwijde netwerk van GPU’s. Ontwikkelaars kunnen een van de populaire open source-modellen kiezen en hoeven vervolgens alleen maar te klikken op “Deploy to Cloudflare Workers AI” om een model direct te kunnen gebruiken. Er zijn momenteel 14 gecureerde Hugging Face-modellen geoptimaliseerd voor Cloudflare’s wereldwijde serverloze inferentieplatform, met ondersteuning voor drie verschillende taakcategorieën, waaronder tekstgeneratie, inbeddingen en zinsgelijkenis.  

“Wij zijn verheugd om AI samen met Cloudflare toegankelijker te maken voor ontwikkelaars”, aldus Julien Chaumond, medeoprichter en chief technology officer van Hugging Face. “Het aanbieden van de meest populaire open modellen met een serverloze API, aangedreven door een wereldwijde vloot van GPU’s, is een geweldige propositie voor de Hugging Face community. Ik kan niet wachten om te zien wat ze ermee gaan ontwikkelen.”

AI-first bedrijven ontwikkelen met Workers AI

Bedrijven over de hele wereld vertrouwen op Workers AI en Cloudflare’s wereldwijde netwerk voor hun AI-toepassingen, waaronder:  

  • Talkmap helpt klanten om realtime conversatie-informatie en -inzichten te ontdekken en zichtbaar te maken. Met miljoenen klantgesprekken per dag en de behoefte aan een snelle doorlooptijd voor CX & EX-uitkomsten, heeft het ontwikkelaarsplatform van Cloudflare ons geholpen om de opslagkosten en latentie laag te houden. Wij hebben voor Cloudflare gekozen om ons te helpen onze generatieve AI-service te schalen en onze runtime-architectuur te vereenvoudigen, zodat we ons kunnen blijven richten op het toevoegen van klantwaarde voor conversatie-inzichten in het contactcentrum.” — Jonathan Eisenzopf, oprichter en Chief Strategy & Research Officer, Talkmap
  • ChainFuse transformeert ongestructureerde datachaos in bruikbare inzichten en zorgt ervoor dat elk stukje feedback van klanten, elk probleem en elke kans wordt gehoord en gewaardeerd. Met behulp van producten als Workers AI, AI Gateway en Vectorize hebben we met succes al ruim 50.000 unieke conversaties geanalyseerd en gecategoriseerd vanuit plaatsen als Discord, Discourse, Twitter, G2 en meer. Toegang hebben tot 28 AI-modellen voor elke taak, en de mogelijkheid om ze tussendoor te verwisselen, stelt ons in staat om op grote schaal accuraat en efficiënt te zijn.” – George Portillo, co-founder, ChainFuse.com.
  • Discourse.org is een modern, open-source discussieplatform dat meer dan 20.000 online communities ondersteunt, van kleine hobbygroepen tot forums voor enkele van de grootste bedrijven ter wereld. Discourse maakt gebruik van Cloudflare’s Workers AI om embeddingdmodellen uit te voeren voor onze populaire functie ‘Gerelateerde onderwerpen’. Dit levert relevante resultaten op binnen communities, waardoor communityleden nieuwe mogelijkheden krijgen om onderwerpen waarin ze geïnteresseerd zijn te vinden en zich daarmee bezig te houden. Workers AI is momenteel een van de betaalbare, open-source manieren waarop we aanverwante onderwerpen kunnen aanbieden met behulp van een goed presterend embeddingsmodel om onze klanten een manier te bieden om hun communityleden een nieuwe manier te bieden om relevantere content te ontdekken en de betrokkenheid te verbeteren.” – Saif Murtaza, AI Product Manager, Discourse.org
  • Simmer brengt het swipen van dating-apps naar de recepten- en kookwereld, om koppels samen te brengen tijdens een maaltijd die ze allebei lekker vinden. Simmer heeft voortdurend Cloudflare-producten geadopteerd naarmate het platform is uitgebreid en Workers AI was daarop geen uitzondering. Wij gebruiken Workers AI embeddings en grote taalmodellen, zoals Mistral 7B, om ons te helpen een gepersonaliseerde ervaring te creëren voor gebruikers op de app, inclusief gecureerde recepten op basis van voorkeuren. We gaan eerst naar Cloudflare om te onderzoeken of hun producten passen bij onze use case, omdat ze zo eenvoudig zijn om mee te werken. Het gebruik van Cloudflare-producten helpt ons ook om veel kosten te besparen terwijl we onze startup laten groeien.” – Ben Ankiel, CTO, Simmer
  • Audioflare gebruikt AI om korte audiobestanden te converteren, te inspecteren, samen te vatten en te vertalen naar verschillende talen. We rekenen sterk op Workers AI voor het stroomlijnen van AI-gerelateerde taken, waaronder het verwerken van audiobestanden, sentimentevaluatie, taalvertaling en het onderhouden van de algehele efficiëntie en betrouwbaarheid van AI. We zijn onder de indruk van Cloudflare’s vermogen om de backend van onze app te vereenvoudigen. Wij geloven in de consistente verbeteringen en toewijding van Cloudflare en hebben er vertrouwen in dat we met hun platform kunnen groeien.” – Sean Oliver, creator of the open-source LLM repository, Audioflare
redactie@belgiumcloud

redactie@belgiumcloud

Persberichten, blogs en andere content kunt u mailen naar robbert@belgiumcloud.com

Pin It on Pinterest

Share This