Cybercriminelen doen zich voor als OpenAI in een grootschalige phishing aanval

1 november 2024

Onder­zoe­kers van Barracuda hebben een groot­scha­lige OpenAI-imita­tie­cam­pagne ontdekt, gericht op bedrijven over de hele wereld. Daarbij deden de aanval­lers zich voor als OpenAI – het bedrijf achter onder andere ChatGPT – in een urgent e‑mailbericht waarin de ontvan­gers werd gevraagd om beta­lings­ge­ge­vens bij te werken voor een maan­de­lijks abonnement.

Deze phishing-aanval bevatte een verdacht afzen­der­do­mein en een legitiem ogend e‑mailadres en probeerde een gevoel van urgentie te creëren bij de ontvan­gers. De e‑mail leek sterk op een legitiem bericht van OpenAI, maar bevatte een versleu­telde hyperlink waarbij de daad­wer­ke­lijke URL verschilde per e‑mail.

De impact van GenAI op phishing

ChatGPT heeft sinds de lancering veel interesse gewekt bij zowel bedrijven als cyber­cri­mi­nelen. Terwijl bedrijven zich steeds meer zorgen maken over de vraag of hun bestaande secu­ri­ty­maat­re­gelen voldoende bescher­ming bieden tegen drei­gingen die zijn gecreëerd met behulp van gene­ra­tieve AI-tools, vinden aanval­lers telkens weer nieuwe manieren om misbruik te maken van deze tools. Daarbij gebruiken ze AI onder andere om zich te richten op eind­ge­brui­kers en maken ze misbruik van poten­tiële kwets­baar­heden. Dit varieert van het opzetten van over­tui­gende phishing-campagnes tot het inzetten van geavan­ceerde methoden voor het verza­melen van login­ge­ge­vens en het afleveren van malware.

Onder­zoeken door Barracuda en door bekende secu­ri­ty­a­na­listen zoals Forrester wijzen wel op een toename van e‑mailaanvallen zoals spam en phishing sinds de lancering van ChatGPT. Het is duidelijk dat GenAI invloed op het volume van aanvallen en het gemak waarmee ze worden gecreëerd, maar voorlopig gebruiken cyber­cri­mi­nelen deze tech­no­logie nog steeds vooral om te helpen bij reeds bekende tactieken en aanvallen, bijvoor­beeld om zich voor te doen als een bekend merk. 

Uit het 2024 Data Breach Inves­ti­ga­tions Report van Verizon blijkt dat GenAI vorig jaar in minder dan 100 cybe­rin­ci­denten werd genoemd. In het rapport staat: “We letten op aanwij­zingen voor de groeiende inzet van gene­ra­tieve arti­fi­cial intel­li­gence (GenAI) bij aanvallen en de mogelijke effecten van die tech­no­lo­gieën. Maar uit de inci­dent­ge­ge­vens die we wereld­wijd verza­melden kwam niets naar voren.” Verder staat in het rapport dat het aantal vermel­dingen van GenAI-termen opvallend laag was, verge­leken met tradi­ti­o­nele aanvals­me­thoden en ‑vectoren zoals phishing, malware, kwets­baar­heden en ransom­ware.

Ook analisten van Forrester merkten in hun 2023-rapport op dat tools zoals ChatGPT er weliswaar voor kunnen zorgen dat phishing e‑mails en websites over­tui­gender en groot­scha­liger worden, maar dat er weinig aanwij­zingen zijn dat gene­ra­tieve AI de aard van cyber­aan­vallen funda­men­teel heeft veranderd. Het rapport stelt: “Het vermogen van GenAI om over­tui­gende teksten en afbeel­dingen te creëren zal de kwaliteit van phishing e‑mails en websites aanzien­lijk verbe­teren. Daarnaast kan het fraudeurs ook helpen bij het doen van groot­scha­lige aanvallen.”

Toch is het slechts een kwestie van tijd voordat inno­va­ties in GenAI ertoe zullen leiden dat aanval­lers nieuwe en geavan­ceer­dere drei­gingen ontwik­kelen. Aanval­lers zijn onge­twij­feld aan het expe­ri­men­teren met AI, dus orga­ni­sa­ties zouden zich nu al hierop moeten voor­be­reiden. Waak­zaam­heid voor signalen die kunnen duiden op tradi­ti­o­nele phishing en het versterken van de basis­ver­de­di­ging behoren nog steeds tot de beste manieren waarop bedrijven zich kunnen beschermen tegen evolu­e­rende cyberrisico’s.

Lees voor meer details de blog: https://​blog​.barracuda​.com/​2​0​2​4​/​1​0​/​3​1​/​i​m​p​e​r​s​o​n​a​t​e​-​o​p​e​n​a​i​-​s​t​e​a​l​-​data

Pin It on Pinterest

Share This