Denktank geeft adviezen voor toepassen AI in cybersecurity

7 april 2021

Steeds meer orga­ni­sa­ties maken kunst­ma­tige intel­li­gentie (AI) en machine learning (ML) onderdeel van hun IT-bevei­li­gings­stra­tegie. De Cyber Resi­lience Think Tank, een inter­na­ti­o­nale denktank van toon­aan­ge­vende secu­ri­ty­ex­perts, doet nu een aantal aanbe­ve­lingen voor een effec­tieve en veilige inzet van deze technologieën. 

Cyber­se­cu­rity is een belang­rijk toepas­sings­ge­bied van AI en ML. De tech­no­logie wordt bijvoor­beeld ingezet voor het detec­teren van scha­de­lijke e‑mails en bestanden. Volgens onderzoek van Capgemini Research Institute maakte in 2019 al een vijfde van de orga­ni­sa­ties wereld­wijd gebruik van AI voor secu­ri­ty­doel­einden. Twee derde gaf aan dit in 2020 te willen doen. 

De Cyber Resi­lience Think Tank is een initi­a­tief van secu­ri­ty­spe­ci­a­list Mimecast. De denktank buigt zich meerdere keren per jaar over een actueel thema in de secu­ri­ty­we­reld. De inzichten van de experts worden gebundeld in een e‑book. Dit keer lag de focus op toepas­singen van AI en ML in cyber­se­cu­rity. De Cyber Resi­lience Think Tank komt met een aantal concrete adviezen: 

1. Integreer AI en auto­ma­ti­se­ring in totale security – Veel bedrijven maken gebruik van cyber­se­cu­ri­ty­tools waarin AI zit ingebouwd. Het is cruciaal dat deze oplos­singen goed geïn­te­greerd zijn in de secu­ri­ty­om­ge­ving, zodat meldingen op de juiste manier worden geïn­ter­pre­teerd en opgevolgd. Diverse experts waar­schuwen niet blind in actie te komen als de tool een aanvals­po­ging detec­teert. Een te snelle respons terwijl er niks aan de hand is, kan immers de bedrijfs­voe­ring verstoren. De denktank adviseert mede hierom een zorg­vul­dige vendor­se­lectie met extra aandacht voor betrouwbaarheid. 

2. Kies voor AI-tech­no­logie die complex menselijk gedrag door­grondt – Een tradi­ti­o­nele op regels geba­seerde bevei­li­ging heeft moeite met het detec­teren van geavan­ceerde, gerichte aanvallen. Het is praktisch onmo­ge­lijk om alle vereiste regels handmatig in te stellen. Auto­ma­ti­se­ring met behulp van machine learning biedt uitkomst. De tech­no­logie helpt bij het verwerken van grote hoeveel­heden data en neemt zo veel repe­ti­tief werk uit handen. De denktank benadrukt echter dat het lastig is om algo­ritmes te ontwik­kelen die de nuances van menselijk gedrag ‘begrijpen’. Sommige vendoren zijn hierin verder dan andere. 

3. Mini­ma­li­seer de risico’s voor de business – De denktank pleit ervoor het gebruik van AI mee te nemen in het risi­co­ma­na­ge­ment. Een verkeerde beslis­sing van een AI-tool kan nadelige effecten hebben, zoals het tijdelijk niet beschik­baar zijn van systemen. Maar wellicht is dat risico accep­tabel omdat de AI ook ransom­ware-aanvallen vroeg­tijdig detec­teert en zo veel schade voorkomt. Naarmate de tech­no­logie volwas­sener wordt, zal de kans op fouten afnemen. Tot die tijd is de inzet van AI ook een risi­co­af­we­ging: auto­ma­ti­se­ring moet onder de streep wel zorgen voor efficiëntievoordelen. 

4. Zoek naar de ROI van AI – Het gebruik van AI-tools kan de detectie van en respons op bedrei­gingen versnellen. Maar kijk bij het berekenen van de ROI ook naar het trainen van het machine learning-systeem. Een expert merkt op dat dit veel tijd en middelen in beslag neemt. Aan AI-tools van vendoren hangt vaak al een fors prijs­kaartje. Dat kan een reden zijn om te kiezen voor een leve­ran­cier die zijn AI-tech­no­logie zelf traint. De denktank adviseert om de vendor kritisch te benaderen. Kan de tool getest worden? Hoeveel moeite moet de klant doen voordat alles werkt? 

5. Houd rekening met de priva­cy­as­pecten – AI-tools verza­melen en verwerken data die mogelijk priva­cy­ge­voelig is. Moderne priva­cy­wet­ge­ving bevat al ruime defi­ni­ties die ook van toepas­sing zijn op nieuwe vormen van data­ver­za­me­ling. Sommige experts verwachten zelfs dat er een priva­cy­re­vo­lutie aan zit te komen. Bedrijven die hier nu al op anti­ci­peren door verder te kijken dan de huidige regels, profi­teren daar uitein­de­lijk van. Ook zit er vaak ‘bias’ in de input, het verwer­kings­proces en de output. Dat kan onge­wenste effecten hebben waar orga­ni­sa­ties alert op dienen te zijn.

U kunt het volledige e‑book van de Cyber Resi­lience Think Tank hier gratis lezen.

Pin It on Pinterest

Share This