ChatGPT gaat voor nieuwe golf van geavanceerde AI-phishing aanvallen zorgen

31 januari 2023

Er zijn vele vormen van phishing, maar het meest voor­ko­mende doel is om gebrui­kers zover te krijgen dat ze hun login­ge­ge­vens verstrekken, waarmee aanval­lers toegang willen krijgen tot e‑mail accounts en systemen. Phishing is al een enorme dreiging, maar met nieuwe AI-tools zoals ChatGPT die volledig natuur­lijke teksten kunnen genereren, kan het binnen­kort nog erger worden.

Onder­zoe­kers hebben al laten zien hoe machine learning kan worden gebruikt om tekst te genereren voor groot­scha­lige phishing en business email compro­mise (BEC) campagnes. Hoewel taal­mo­dellen gewoon­lijk worden getraind met behulp van een speci­fieke dataset, zijn onder­zoe­kers erin geslaagd om aanvul­lende inhoud aan deze modellen aan te bieden, die kan worden gebruikt om een speci­fieke uitkomst te stimu­leren. Zo zou een artikel met onjuiste bewe­ringen gebruikt kunnen worden om een hele stroom van soort­ge­lijke scha­de­lijke of mislei­dende inhoud te genereren.

Er is inmiddels aange­toond dat deze modellen zelfs schrijf­stijlen op een zodanige manier kunnen nabootsen dat de gemid­delde persoon moeilijk onder­scheid kan maken een e‑mail van zijn baas en een die gege­ne­reerd is door een computer.

Groeiende interesse aanvallers in AI

Dit is al een bron van zorg voor secu­ri­ty­pro­fes­si­o­nals, aangezien de belang­stel­ling van aanval­lers voor AI-platforms sterk is toege­nomen. Momenteel zijn er nog beper­kingen voor manieren waarop platforms als ChatGPT gebruikt kunnen worden, maar de kans is groot dat er op termijn andere platforms zullen komen. Platforms die beheerd worden door orga­ni­sa­ties of zelfs natie­staten die misschien minder scrupules hebben als het gaat om het inzetten van AI. De kern van iedere propa­gan­da­cam­pagne is desin­for­matie, dus iedere tool dat het makke­lijker maakt om op grote schaal content te genereren, zal zowel ten goede als ten kwade gebruikt worden. Een manier om de ontwik­ke­ling van dit soort platforms te finan­cieren, is door cyber­cri­mi­nelen toegang te geven.

Phis­hing­aan­vallen zullen binnen­kort zowel groot­scha­liger als geavan­ceerder worden. Orga­ni­sa­ties zullen veel digitale processen opnieuw onder de loep moeten nemen, simpelweg omdat het huidige niveau van vertrouwen dat we gewend zijn niet langer voldoende is in een tijdperk waarin e‑mail gemak­ke­lijk kan worden gecompromitteerd.

Het goede nieuws is dat er al tools zijn die kunnen nagaan of een stuk tekst door een machine is gemaakt. Het zal waar­schijn­lijk niet lang duren voordat dit soort hulp­mid­delen opgenomen wordt in anti-phishingplatforms.

Hou de ontwikkeling van AI in de gaten

Het is voor secu­ri­ty­pro­fes­si­o­nals echt aan te raden om op de hoogte te blijven over de ontwik­ke­ling van dit soort AI-modellen. Het tempo waarin deze AI-platforms zich ontwik­kelen en extra moge­lijk­heden krijgen, zal alleen maar toenemen. Het zal ook niet lang duren voordat ze niet alleen tekst, maar ook bijbe­ho­rende afbeel­dingen en video’s gaan genereren. Ik denk dat het slechts een kwestie van tijd is voordat het mana­ge­ment van orga­ni­sa­ties aan secu­ri­ty­pro­fes­si­o­nals gaat vragen om de risico’s van deze platforms te beoor­delen. Daarbij moeten secu­ri­ty­teams niet alleen kijken naar wat deze platforms vandaag kunnen. Binnen­kort kunnen deze werken met kleinere datasets die niet alleen minder IT-infra­struc­tuur vereisen om een model te trainen, maar die ook kunnen worden geop­ti­ma­li­seerd voor toepas­sing in verticale industrieën.

ChatGPT is een inte­res­sante nieuwe ontwik­ke­ling. Maar naast legitieme toepas­singen zijn er ook poten­tiële risico’s. OpenAI geeft zelf toe dat ChatGPT scha­de­lijke en bevoor­oor­deelde antwoorden kan produ­ceren en kan feiten mixen met fictie. Dus laten we de verdere ontwik­ke­lingen scherp in de gaten houden.

Pin It on Pinterest

Share This