AI gegenereerde media zijn de drijvende kracht achter fraude, identiteitsdiefstal en bedrijfscompromittering

17 juli 2025

Trend Micro heeft vandaag een nieuw rapport gepu­bli­ceerd dat de omvang en volwas­sen­heid van deepfake-gedreven cyber­cri­mi­na­li­teit blootlegt. Nu gene­ra­tieve AI-tools krach­tiger, goedkoper en toegan­ke­lijker worden, nemen cyber­cri­mi­nelen ze in snel tempo over om aan te vallen, van zakelijke fraude tot chantage en identiteitsdiefstal. 

Het volledige rapport, Deepfake it ’til You Make It: A Compre­hen­sive View of the New AI Criminal Toolset, is hier te lezen. Het rapport toont aan dat deepfakes allang geen hype meer zijn, maar daad­wer­ke­lijk worden ingezet voor misbruik in de echte wereld. Ze onder­mijnen digitaal vertrouwen, stellen bedrijven bloot aan nieuwe risico’s en versnellen de busi­ness­mo­dellen van cybercriminelen.

David Sancho, senior threat researcher bij Trend Micro: “AI-gege­ne­reerde media zijn niet alleen een risico voor de toekomst, maar vormen nu al een echte bedrei­ging voor bedrijven. We zien hoe leiding­ge­venden geïmi­teerd worden, hoe solli­ci­ta­tie­pro­ce­dures worden gesa­bo­teerd en hoe finan­ciële bevei­li­gingen met gemak worden omzeild. Dit onderzoek is een wake-upcall – bedrijven die zich niet proactief voor­be­reiden op het deepfake-tijdperk, lopen nu al achter. In een wereld waarin ‘zien is geloven’ niet meer geldt, moet digitaal vertrouwen vanaf de basis opnieuw worden opgebouwd.”

Uit het onderzoek blijkt dat mensen met slechte bedoe­lingen geen onder­lig­gende expertise meer nodig hebben om over­tui­gende aanvallen uit te voeren. In plaats daarvan maken ze gebruik van standaard video‑, audio- en afbeel­dings­ge­ne­ra­tie­plat­formen – vaak gericht op content creators – om realis­ti­sche deepfakes te maken die zowel mensen als orga­ni­sa­ties misleiden. Deze tools zijn goedkoop, gebruiks­vrien­de­lijk en steeds beter in staat om iden­ti­teits­ve­ri­fi­catie en bevei­li­gings­sys­temen te omzeilen.

Het rapport schetst een groeiend cyber­cri­mi­neel ecosys­teem waarin deze plat­formen worden ingezet voor over­tui­gende oplich­tings­prak­tijken, zoals:

  • CEO-fraude, waarbij deepfake-audio of ‑video wordt gebruikt om in live verga­de­ringen leiding­ge­venden te imiteren, en wat steeds moei­lijker te detec­teren is.
  • Gesa­bo­teerde solli­ci­ta­tie­pro­ce­dures, waarbij nep-kandi­daten AI gebruiken om solli­ci­ta­tie­ge­sprekken te doorlopen en onge­oor­loofde toegang te krijgen tot interne systemen.
  • Deepfake-aanvallen op finan­ciële instel­lingen, waarbij crimi­nelen Know Your Customer (KYC)-procedures omzeilen met vervalste gegevens, om anoniem geld wit te wassen.

In de cyber-onder­we­reld worden tutorials, toolkits en diensten actief aange­boden om deze prak­tijken te stroom­lijnen. Van staps­ge­wijze hand­lei­dingen om onboar­ding-proce­dures te omzeilen tot plug-and-play gezichts­ver­van­gingstools: de drempel om in te stappen is extreem laag geworden.

Nu deepfake-aanvallen frequenter en geavan­ceerder worden, worden bedrijven aange­spoord om proac­tieve maat­re­gelen te nemen om hun risico’s te beperken en hun mensen en processen te beschermen. Denk aan het trainen van personeel in social engineering-risico’s, het herzien van authen­ti­ca­tie­pro­cessen en het verkennen van detec­tie­op­los­singen voor synthe­ti­sche media.

Pin It on Pinterest

Share This