Trend Micro versterkt security teams in de strijd tegen kwaadaardige AI

30 augustus 2023

Trend Micro deelt vandaag meer infor­matie over zijn voort­du­rende inzet om klanten wereld­wijd te beschermen tegen opkomende AI-bedreigingen.

Jon Clay, VP threat intel­li­gence bij Trend Micro: “AI-tools zoals ChatGPT veroveren de wereld. Helaas wordt de tech­no­logie al gebruikt door oppor­tu­nis­ti­sche cyber­cri­mi­nelen om te profi­teren van bevei­li­gings­gaten van onder­ne­mingen. Trend Micro neemt wereld­wijd het voortouw in de strijd tegen deze bedrei­gingen door middel van baan­bre­kend onderzoek en eigen gebruik van AI om zowel ASRM als XDR te verbeteren.”

In de eerste helft van 2023 blok­keerde Trend Micro 73 miljard bedrei­gingen voor zijn wereld­wijde klanten, goed voor een stijging van 16% tegenover dezelfde periode vorig jaar. Deze cijfers illu­streren zowel de groeiende kracht van de detec­tie­ca­pa­ci­teiten voor bedrei­gingen als de enorme omvang van het huidige dreigingslandschap.

Kwaad­aar­dige AI-tools zoals WormGPT en FraudGPT worden al gebouwd bovenop open-source gene­ra­tieve AI-plat­formen om cyber­cri­mi­na­li­teit te demo­cra­ti­seren, hackers produc­tiever te maken en aanvallen meer kans op slagen te geven.

Onderzoek van Trend Micro onthulde hoe cyber­cri­mi­nelen AI-tech­no­logie voor het klonen van stemmen, bekend als “deepfakes”, combi­neren met gene­ra­tieve AI in “virtuele kidnapping”-aanvallen. Met ChatGPT worden grote datasets gefilterd en samen­ge­voegd om slacht­of­fers te selec­teren. Deepfakes worden ingezet om deze slacht­of­fers te laten geloven dat hun kind is ontvoerd om zo losgeld te eisen.

Een ander onderzoek van Trend Micro onthult hoe gene­ra­tieve AI kan worden gebruikt om aspirant-hackers te helpen trainen en onder­steunen. De tech­no­logie kan worden gebruikt om:

  • scha­de­lijke polymorfe code te schrijven;
  • malware te maken die eerder onop­ge­merkt blijft;
  • zeer over­tui­gende phis­hing­be­richten, webpagina’s en scam e‑mails (voor BEC) te maken in meerdere talen;
  • hacking-tools te maken;
  • kwets­baar­heden te vinden;
  • crimi­nelen te leren coderen en hacken;
  • en kaart­ge­ge­vens te vinden die kunnen worden gebruikt voor fraude

Derge­lijke inspan­ningen worden continu verbeterd door snode ontwik­ke­laars die de tools aanbieden via abon­ne­ments­prijzen om de toegangs­drempel nog verder te verlagen. De ontwik­ke­ling en inzet van zulke kwaad­aar­dige AI zet bevei­li­gings­teams steeds meer onder druk om bedrei­gingen in een vroeg stadium te detec­teren en erop te reageren, zodat ze kunnen worden ingedamd voordat er echte schade wordt aangericht.

Trend Vision One maakt zelf gebruik van gene­ra­tieve AI in de vorm van de virtuele assistent Companion, die SOC-analisten helpt de snelheid en het polymorfe karakter van AI-gestuurde aanvallen te evenaren. De functies:

  • Een work­ben­ch­functie die gebrui­kers helpt waar­schu­wingen beter te begrijpen, waardoor ze minder tijd verliezen door het onder­zoeken van bedrei­gingen. Gemiddeld bespaart dit drie minuten per waar­schu­wing, wat kan oplopen tot enkele uren per gebruiker per week.
  • Een opdracht­re­gel­functie die analisten nog meer tijd bespaart door complexe scripts te vereen­vou­digen. Gebrui­kers kunnen tot 40 minuten produc­ti­vi­teits­winst boeken ten opzichte van handmatig zoeken en het gebruik van gespe­ci­a­li­seerde tools.
  • Een zoek­op­dracht­ge­ne­rator die tot een uur kan besparen door gebrui­kers te helpen bij het opstellen van de juiste zoek­op­drachten om veldnamen, opera­toren en waarden te vinden.

Trend Micro loopt al sinds 2005 voorop bij de ontwik­ke­ling van AI-oplos­singen, waaronder tools die zijn ontworpen om BEC-aanvallen te detec­teren. De functie Writing Style DNA in het Cloud App Security Platform leert een “normale” schrijf­stijl voor e‑mails van eerdere berichten van een gebruiker en markeert wanneer e‑mails afwijken van deze basislijn. Op deze manier werden in 2022 meer dan 130.000 BEC-aanvallen voor klanten geblokkeerd.

Pin It on Pinterest

Share This