Trend Micro heeft vandaag een nieuw rapport gepubliceerd dat de omvang en volwassenheid van deepfake-gedreven cybercriminaliteit blootlegt. Nu generatieve AI-tools krachtiger, goedkoper en toegankelijker worden, nemen cybercriminelen ze in snel tempo over om aan te vallen, van zakelijke fraude tot chantage en identiteitsdiefstal.
Het volledige rapport, Deepfake it ’til You Make It: A Comprehensive View of the New AI Criminal Toolset, is hier te lezen. Het rapport toont aan dat deepfakes allang geen hype meer zijn, maar daadwerkelijk worden ingezet voor misbruik in de echte wereld. Ze ondermijnen digitaal vertrouwen, stellen bedrijven bloot aan nieuwe risico’s en versnellen de businessmodellen van cybercriminelen.
David Sancho, senior threat researcher bij Trend Micro: “AI-gegenereerde media zijn niet alleen een risico voor de toekomst, maar vormen nu al een echte bedreiging voor bedrijven. We zien hoe leidinggevenden geïmiteerd worden, hoe sollicitatieprocedures worden gesaboteerd en hoe financiële beveiligingen met gemak worden omzeild. Dit onderzoek is een wake-upcall – bedrijven die zich niet proactief voorbereiden op het deepfake-tijdperk, lopen nu al achter. In een wereld waarin ‘zien is geloven’ niet meer geldt, moet digitaal vertrouwen vanaf de basis opnieuw worden opgebouwd.”
Uit het onderzoek blijkt dat mensen met slechte bedoelingen geen onderliggende expertise meer nodig hebben om overtuigende aanvallen uit te voeren. In plaats daarvan maken ze gebruik van standaard video-, audio- en afbeeldingsgeneratieplatformen – vaak gericht op content creators – om realistische deepfakes te maken die zowel mensen als organisaties misleiden. Deze tools zijn goedkoop, gebruiksvriendelijk en steeds beter in staat om identiteitsverificatie en beveiligingssystemen te omzeilen.
Het rapport schetst een groeiend cybercrimineel ecosysteem waarin deze platformen worden ingezet voor overtuigende oplichtingspraktijken, zoals:
- CEO-fraude, waarbij deepfake-audio of -video wordt gebruikt om in live vergaderingen leidinggevenden te imiteren, en wat steeds moeilijker te detecteren is.
- Gesaboteerde sollicitatieprocedures, waarbij nep-kandidaten AI gebruiken om sollicitatiegesprekken te doorlopen en ongeoorloofde toegang te krijgen tot interne systemen.
- Deepfake-aanvallen op financiële instellingen, waarbij criminelen Know Your Customer (KYC)-procedures omzeilen met vervalste gegevens, om anoniem geld wit te wassen.
In de cyber-onderwereld worden tutorials, toolkits en diensten actief aangeboden om deze praktijken te stroomlijnen. Van stapsgewijze handleidingen om onboarding-procedures te omzeilen tot plug-and-play gezichtsvervangingstools: de drempel om in te stappen is extreem laag geworden.
Nu deepfake-aanvallen frequenter en geavanceerder worden, worden bedrijven aangespoord om proactieve maatregelen te nemen om hun risico’s te beperken en hun mensen en processen te beschermen. Denk aan het trainen van personeel in social engineering-risico’s, het herzien van authenticatieprocessen en het verkennen van detectieoplossingen voor synthetische media.