Cybercriminelen misbruiken AI-tools om digitale security te verzwakken

1 augustus 2025

Cyber­cri­mi­nelen zetten steeds geavan­ceer­dere methoden in om orga­ni­sa­ties te mani­pu­leren. Onder­zoe­kers van Barracuda laten zien dat aanval­lers niet alleen AI gebruiken om phis­hing­mails te distri­bu­eren en over­tui­gende phis­hing­cam­pagnes te creëren, maar dat ze ook AI-tools en secu­ri­ty­sys­temen van orga­ni­sa­ties weten te misleiden, corrum­peren of saboteren.

E‑mail aanvallen gericht op AI-assistenten

Een van de meest zorg­wek­kende ontwik­ke­lingen is het vergif­tigen (poisoning) van AI-assis­tenten via e‑mail. Aanval­lers sturen schijn­baar onschul­dige berichten waarin verborgen opdrachten (prompts) zijn opgenomen. Deze e‑mails vragen geen reactie of inter­actie van de gebruiker; ze blijven ongemerkt in de inbox staan. Als een mede­werker zijn AI-assistent dan bijvoor­beeld vraagt om een taak uit te voeren, scant deze de mailbox voor context en stuit zo op de verborgen opdracht.

Op deze manier kan de AI-assistent ongemerkt gevoelige infor­matie door­sturen, opdrachten uitvoeren of interne gegevens mani­pu­leren. Recent werd bijvoor­beeld een kwets­baar­heid ontdekt in Microsoft 365 Copilot, waarbij infor­matie uit het netwerk kon worden opgehaald zonder auto­ri­satie. Dit is inmiddels verholpen, maar het laat zien hoe snel en onzicht­baar AI kan worden misbruikt.

Ook de onder­lig­gende tech­no­logie van veel AI-systemen blijkt kwetsbaar. Aanval­lers richten zich op systemen die gebruik­maken van Retrieval-Augmented Gene­ra­tion (RAG), waarbij AI modellen externe infor­matie ophalen om betere antwoorden te geven. Door deze infor­ma­tie­bron te mani­pu­leren, zorgen aanval­lers ervoor dat de AI verkeerde of zelfs gevaar­lijke beslis­singen neemt. Dat kan leiden tot foutieve rappor­tages, verkeerde prio­ri­te­ring van taken of mislei­ding van medewerkers.

Manipulatie van AI-gestuurde security

Niet alleen AI-assis­tenten zijn doelwit. Aanval­lers richten zich ook op AI-gestuurde secu­ri­ty­func­ties zoals het auto­ma­ti­sche filteren van spam e‑mail, help­desk­pro­cessen en workflow-auto­ma­ti­se­ring. Door misbruik te maken van deze systemen kunnen ze bijvoor­beeld een support­ticket laten escaleren zonder dat dit gecon­tro­leerd wordt, of workflows activeren die leiden tot het instal­leren van malware of het verstoren van bedrijfsprocessen.

Ook zijn er steeds meer gevallen waarbij AI-systemen gebrui­kers proberen te misleiden of verkeerde iden­ti­teiten aannemen. In zoge­naamde ‘Confused Deputy’-aanvallen wordt een AI-agent met hogere rechten misleid om taken uit te voeren voor een onbe­voegde gebruiker (zoals een aanvaller). Ook kunnen bestaande AI-inte­gra­ties met bijvoor­beeld Microsoft 365 of Gmail worden misbruikt om gegevens te lekken of frau­du­leuze berichten te verzenden. In sommige gevallen kan één gema­ni­pu­leerde e‑mail ertoe leiden dat de AI onjuiste samen­vat­tingen genereert, taken verkeerd toewijst of zelfs verkeerde zakelijke beslis­singen ondersteunt.

Dit alles toont aan dat de opkomst van gene­ra­tieve AI niet alleen kansen biedt, maar ook een nieuw gebied voor cyber­aan­vallen vormt. Tradi­ti­o­nele secu­ri­ty­maat­re­gelen, zoals spam­fil­ters, SPF- of DKIM-authen­ti­catie en IP-blokkades, zijn niet langer voldoende. Orga­ni­sa­ties moeten e‑mail niet langer alleen zien als commu­ni­ca­tie­ka­naal, maar als een omgeving waarin AI zelf­standig handelt en dus ook zelf­standig fouten kan maken of gema­ni­pu­leerd kan worden.

Zonder aanpas­sing van het secu­ri­ty­be­leid en het creëren van bewust­zijn rond deze nieuwe aanvals­tech­nieken, lopen orga­ni­sa­ties het risico dat hun eigen AI-tools tegen hen worden gebruikt.

Lees de uitge­breide blog met meer infor­matie: https://​blog​.barracuda​.com/​2​0​2​5​/​0​7​/​3​0​/​t​h​r​e​a​t​-​s​p​o​t​l​i​g​h​t​-​a​t​t​a​c​k​e​r​s​-​p​o​i​s​o​n​-​a​i​-​t​o​o​l​s​-​d​e​f​e​nses

Pin It on Pinterest

Share This