Fortinet werkt samen met universiteit Berkeley aan het ‘AI-Enabled Cybercrime’-initiatief 

18 februari 2025

Fortinet is een part­ner­ship aangegaan met Berkeley’s Center for Long-Term Cyber­se­cu­rity (CLTC) en het Berkeley Risk and Security Lab (BRSL). De samen­wer­king heeft als doel infor­matie en kennis te delen, wat bijdraagt aan een snellere detectie van bedrei­gingen en een snellere, beter geco­ör­di­neerde reactie op geavan­ceerde aanvallen. 

Een geza­men­lijke aanpak van de bestrij­ding van cyber­cri­mi­na­li­teit vergroot de veer­kracht van elke orga­ni­satie en geeft toegang tot de middelen die nodig zijn om bedrijven effectief te beschermen. Prak­tijk­er­va­ring opdoen met het beperken van AI-gerichte bedrei­gingen is de volgende cruciale stap in het bestrijden van steeds geavan­ceer­dere cyber­cri­mi­nele activiteiten.

CLTC werd in 2015 opgericht als een onder­zoeks- en samen­wer­kings­cen­trum aan de Univer­si­teit van Cali­fornië, Berkeley, en fungeert als een platform en brug tussen acade­misch onderzoek en de behoeften van besluit­vor­mers in de overheid, het bedrijfs­leven en het maat­schap­pe­lijk midden­veld met betrek­king tot de toekomst van veilig­heid. BRSL aan de Goldman School of Public Policy van UC Berkeley is een acade­misch onder­zoeks­in­sti­tuut dat zich richt op het snijvlak van tech­no­logie en veilig­heid. Het lab voert analy­tisch onderzoek uit en ontwerpt en ontwik­kelt wargames.

Het prak­tijk­pro­ject AI-Enabled Cyber­crime bestaat uit een gestruc­tu­reerde reeks tabletop-oefe­ningen (TTX’s), enquêtes, workshops en inter­views. Het project simuleert scenario’s uit de echte wereld om de dynamiek van AI-geba­seerde cyber­cri­mi­na­li­teit bloot te leggen en toekomst­ge­richte verde­di­gings­stra­te­gieën te ontwikkelen. 

Afgelopen december vond de eerste prak­tijk­sessie plaats, waaruit onder­staande bevin­dingen voortvloeiden. 

5 AI-gebaseerde cybercrimetrends om in de gaten te houden

Tijdens de TTX en aanver­wante discus­sies heeft de groep de belang­rijkste trends met betrek­king tot AI-geba­seerde cyber­cri­mi­na­li­teit vast­ge­steld die, zo wordt verwacht, in de toekomst belang­rijk zullen worden:

  1. De opkomst van deepfakes en social engi­nee­ring: Deepfake-tech­no­logie wordt ​ toegan­ke­lijker. Kwaad­wil­lenden kunnen bijvoor­beeld stemmen klonen met YouTube-beelden en een goedkoop abon­ne­ment. Naarmate AI-gestuurde bewer­kingstools breder beschik­baar worden, zullen we het aantal imita­tie­aan­vallen zien toenemen. Daarnaast verwachten we dat cyber­cri­mi­nelen “deepfake gene­ra­tion on demand” zullen aanbieden, waarbij stem- en video­ver­val­sing worden omgezet in een as-a-service model, net zoals we Ransom­ware-as-a-Service hebben zien evolueren.
  2. Hyper­ge­richte phishing: Phishing wordt tegen­woordig steeds lokaler, persoon­lijker en over­tui­gender. Door AI te gebruiken als hulp­middel bij hun verken­nings­in­span­ningen, creëren drei­gings­ac­toren contextrijke, cultureel relevante phis­hing­be­richten die zijn afgestemd op lokale talen en in sommige gevallen verwijzen naar regio­spe­ci­fieke feest­dagen, gewoonten of gebeur­te­nissen. Hierdoor lijken deze berichten vaak legitiem en kunnen ze zelfs de meest cyber­be­wuste ontvanger voor de gek houden.
  3. Agent-AI voor malware en verken­ning: Het gebruik van agentic AI door cyber­cri­mi­nelen zal zich snel ontwik­kelen. Een cyber­cri­mi­nele groep zou bijvoor­beeld meerdere AI-agenten kunnen beheren, die zich allemaal richten op het uitvoeren van een deel van de cyber kill chain, maar doen dat sneller dan een mens. In de toekomst verwachten we dat tegen­stan­ders AI-agenten zullen gebruiken voor meerdere acti­vi­teiten, zoals het inzetten van AI-agenten in botnets die actief bezig zijn met het ontdekken van Common Vulne­ra­bi­li­ties and Exposures (CVE’s).
  4. AI-gestuurde iden­ti­teiten om bedrei­gingen van binnenuit te vergroten: Tijdens de TTX besprak de groep een scenario waarin aanval­lers AI-gestuurde iden­ti­teiten zouden kunnen creëren en gebruiken om te solli­ci­teren naar banen op afstand bij tech­no­lo­gie­be­drijven, waarbij ze langs standaard achter­grond­con­troles komen met een verzonnen arbeids­ver­leden. Als kwaad­wil­lende actoren dit gebruik van AI verkennen, moeten orga­ni­sa­ties het door­lich­tings­proces bij het aannemen van personeel opnieuw onder­zoeken en vernieuwen.
  5. Geau­to­ma­ti­seerd scannen op kwets­baar­heden en uitbui­ting: Hoewel cyber­cri­mi­nelen AI nu voor­na­me­lijk gebruiken voor verken­ning en om te helpen bij de eerste inbraak, verwachten we dat kwaad­wil­lende actoren AI snel zullen inzetten om kwets­baar­heden te ontdekken en te misbruiken. In korte tijd kunnen AI-tools grote hoeveel­heden code scannen, zero-day en N‑day kwets­baar­heden iden­ti­fi­ceren en deze vervol­gens auto­ma­tisch uitbuiten.

Als reactie op het gebruik van AI door cyber­cri­mi­nelen moeten bevei­li­gings­teams de verde­di­ging van de orga­ni­satie versterken door de juiste tech­no­lo­gieën en processen te imple­men­teren. Een bedrijfs­breed trainings- en oplei­dings­pro­gramma voor cyber­be­vei­li­ging is een cruciaal onderdeel van een effec­tieve risi­co­be­heer­stra­tegie. Werk­ne­mers staan vaak in de front­linie als het gaat om social engi­nee­ring en phis­hing­aan­vallen, waardoor het van vitaal belang is dat iedereen in een orga­ni­satie weet hoe hij of zij een aanvals­po­ging moet herkennen.

Pin It on Pinterest

Share This