Cloudflare Firewall for AI voor beveiliging AI-toepassingen

4 maart 2024

Cloud­flare kondigt vandaag de ontwik­ke­ling aan van Firewall for AI, een nieuwe bescher­mings­laag die misbruik en aanvallen kan iden­ti­fi­ceren voordat ze Large Language Models (LLM’s) bereiken en ermee knoeien. Het is een AI-toepas­sing die de mense­lijke taal en andere soorten complexe data inter­pre­teert. Gesteund door de kracht van haar wereld­wijde netwerk posi­ti­o­neert Firewall for AI Cloud­flare als een van de enige secu­ri­ty­le­ve­ran­ciers die voor­be­reid is om de volgende golf van aanvallen in de AI-revolutie te bestrijden. Deze aanvallen zijn gericht op de func­ti­o­na­li­teit, kritieke gegevens en bedrijfs­ge­heimen van LLM’s.

Uit een recent onderzoek bleek dat slechts een op de vier managers het vertrouwen heeft dat hun orga­ni­sa­ties goed zijn voor­be­reid om de risico’s van AI aan te pakken. Als het gaat om het beschermen van LLM’s, kan het een enorme uitdaging zijn om vanaf het begin adequate bevei­li­gings­sys­temen in te bouwen. Het is bijna onmo­ge­lijk om de gebrui­kers­in­ter­ac­ties te beperken en de modellen liggen ook niet van tevoren vast, ze kunnen bijvoor­beeld verschil­lende outputs genereren, zelfs als ze dezelfde input krijgen. Als gevolg hiervan kunnen LLM’s een weerloos doel worden voor kwaad­wil­lenden, waardoor orga­ni­sa­ties kwetsbaar worden voor geknoei met modellen, aanvallen en misbruik. 

Met Cloudflare’s Firewall for AI kunnen secu­ri­ty­teams hun LLM-appli­ca­ties beschermen tegen mogelijke kwets­baar­heden die als wapen worden ingezet tegen AI-modellen. Cloud­flare gaat klanten in staat stellen om:

  • Nieuwe bedrei­gingen snel te detec­teren: Firewall for AI kan worden ingezet voor elke LLM die draait op Cloudflare’s Workers AI. Door prompts van een gebruiker te scannen en te evalueren, kunnen pogingen om een model te misbruiken en gegevens te extra­heren beter worden geïdentificeerd. 
  • Bedrei­gingen auto­ma­tisch te blokkeren, zonder mense­lijke inter­ventie: Firewall for AI is gebouwd bovenop het wereld­wijde netwerk van Cloud­flare en zal dicht bij de eind­ge­bruiker worden ingezet, waardoor modellen vrijwel onmid­del­lijk kunnen worden beschermd tegen misbruik. 
  • Imple­men­teer veilig­heid by default, gratis: elke klant die een LLM draait op Cloudflare’s Workers AI kan gratis worden beschermd door Firewall for AI, om toene­mende problemen zoals prompt injection en data­lekken te helpen voorkomen.

“Als er nieuwe soorten toepas­singen opduiken, volgen er ook snel nieuwe soorten bedrei­gingen. Dat is niet anders voor AI-geba­seerde toepas­singen”, zegt Matthew Prince, mede-oprichter en CEO bij Cloud­flare. “Met Cloudflare’s Firewall for AI helpen we bevei­li­ging vanaf het begin in te bouwen in het AI-landschap. We zullen een van de aller­eerste schilden voor AI-modellen bieden waarmee bedrijven hun voordeel kunnen doen met de moge­lijk­heden die deze tech­no­logie biedt, terwijl ze er tege­lij­ker­tijd voor zorgen dat ze beschermd zijn.”

Gartner stelt: “Je kunt een GenAI-appli­catie niet geïso­leerd bevei­ligen. Begin altijd met een solide basis van cloud­be­vei­li­ging, gege­vens­be­vei­li­ging en appli­ca­tie­be­vei­li­ging, voordat je GenAI-speci­fieke bevei­li­gings­maat­re­gelen gaat plannen en inzetten”. Cloud­flare Firewall for AI voegt extra lagen toe aan het bestaande uitge­breide bevei­li­gings­plat­form en stopt daarmee de bedrei­gingen van opkomende technologieën.

Pin It on Pinterest

Share This