Welke mogelijkheden biedt ChatGPT voor hackers en scammers?

22 februari 2023

Welke moge­lijk­heden biedt ChatGPT algemeen gesproken voor hackers en scammers? Kunnen ze de tool bijvoor­beeld gebruiken om hun scams geloof­waar­diger te maken? Lukt het ze om hun slacht­of­fers zo nog meer infor­matie te ontfutselen?

Waar het op neerkomt, is dat aanval­lers met ChatGPT phis­hing­tek­sten en elemen­taire malware sneller en geau­to­ma­ti­seerder kunnen schrijven. De tool creëert nog geen geavan­ceerde nieuwe malware en zorgt evenmin voor een wezen­lijke veran­de­ring van het bedrei­gings­land­schap, afgezien van een verhoging van de frequentie. Modellen zoals ChatGPT worden ook wel eens omschreven als een “stochas­ti­sche papegaai”, een term die verwijst naar taal­mo­dellen die worden getraind met gigan­ti­sche aantallen data, en jazeker, ze zijn heel goed in het genereren van veel teksten. 

Het is echter wel zo dat maar enkele vormen van phishing vertrouwen op de betekenis van teksten, terwijl andere meer vertrouwen op zichtbare functies van e‑mail, zoals e‑mails er uit laten zien als een betaal­ver­zoek van een bank, en die kan ChatGPT niet genereren. Ook al kan ChatGPT scammers zeker helpen om meer teksten, in verschil­lende talen, te genereren, het staat niet vast dat er ook betere, meer over­tui­gende teksten mee kunnen worden gemaakt. 

Het genereren van meer tekst kan ook tot meer slacht­of­fers leiden omdat anti-phis­hing­me­cha­nismen afhan­ke­lijk zijn van taal­mo­dellen voor het detec­teren van kwade bedoe­lingen in een tekst. Het is aanne­me­lijk dat anti-phis­hing­me­cha­nismen kunnen worden getraind op het detec­teren van door ChatGPT gege­ne­reerde e‑mails, maar dit betekent onge­twij­feld een volgende fase in deze nooit aflatende strijd van een geheel nieuw niveau.

Dit zijn enkele andere manieren waarop ChatGPT zou kunnen worden gebruikt door hackers en scammers:

  1. Broncode analy­seren om zwakke plekken te vinden (bijvoor­beeld in de vorm van SQL-injecties, buffer­over­flows). Dat is niets nieuws: ChatGPT helpt onervaren aanval­lers alleen maar tijd te winnen.
  2. Exploits schrijven: hoewel tests op dit moment laten zien dat dit nog niet altijd goed werkt.
  3. Auto­ma­ti­seren van code: helpt beginners hun werk sneller te auto­ma­ti­seren (denk bijvoor­beeld aan “schrijf een script om met wacht­woord­dumps in te loggen bij Twitter”).
  4. Malware schrijven: deels geblok­keerd door de richt­lijnen van ChatGPT, maar eenvou­dige macro’s zijn dan nog altijd mogelijk. Er wordt niks “nieuws” gemaakt omdat ze ook te vinden zijn door te googelen. Dus nogmaals, dat maakt de toegang voor iedereen alleen maar gemakkelijker.
  5. Chatbots voor social engi­nee­ring: dat kan iets nieuws zijn voor zoge­naamde 419-scams, BEC, romance scams (emoti­o­nele oplich­ting) of grooming gericht op LinkedIn, waar enkele ronden van inter­actie nodig zijn. Dit kan nu zodanig worden geau­to­ma­ti­seerd dat het als een echt gesprek aanvoelt met nog geen 1% aan mense­lijke inter­actie, waardoor het beter kan worden geschaald.

Wat is de kans dat dit gebeurt en hoe vaak zou het kunnen gebeuren?

Er zijn meldingen van red teamers dat ChatGPT wordt gebruikt om phis­hing­mails te genereren, dus blijkbaar gebeurt dat al. Er zijn ook meldingen in under­ground­fo­rums dat sommige aanval­lers met ChatGPT een wacht­woord-stealer in Python hebben gemaakt. Ander­zijds werkt OpenAI voort­du­rend ChatGPT bij om de kans te verkleinen dat het wordt gebruikt om schade te berok­kenen, zowel in fysiek als virtueel opzicht. 

Hoe kunnen bedrijven en particulieren zich verdedigen tegen zulke scams? Waarop moet je met name letten?

Omdat ChatGPT getraind is met bestaande teksten, zullen de gege­ne­reerde teksten niet “beter” zijn dan die teksten. Om poten­tieel scha­de­lijke e‑mails te detec­teren, kun je zoeken naar de gebrui­ke­lijke signalen van scams, zoals een onge­brui­ke­lijk gevoel van urgentie. Het gebruik van bepaalde tref­woorden, zoals urgent, geld overmaken, reageer nu, wacht­woord, zorgt ervoor dat phis­hing­mails er urgent en belang­rijk uitzien. Bovendien kan ChatGPT er niet op wonder­baar­lijke wijze voor zorgen dat een e‑mailbericht eruitziet alsof het van je bank komt, waarbij al jaren oude trucs zoals nep-e-mail­adressen en ‑domeinen die er echt uitzien nog altijd door scammers worden gebruikt. Let op aanwij­zingen zoals e‑mailkoppen of URL’s als SPF, DKIM en DMARC. Die geven allemaal aan vanaf welke server de e‑mail is verzonden en voor welke domeinen die server is gecon­fi­gu­reerd. In essentie betekent dit dat zelfs als de tekst of e‑mail perfect is, als deze verzonden is via een e‑mailaccount zoals bijvoor­beeld fake@​hacker.​com, de tekst of e‑mail makkelijk te herkennen is als nep.

Kun je wat scenario’s en/​of voorbeelden geven over hoe AI-tools zoals ChatGPT kunnen worden gebruikt om gewone mensen te bedriegen of zelfs om ze te hacken? En wat kunnen mensen daartegen doen?

ChatGPT kan niet worden gebruikt om “mensen te hacken”, het is namelijk een gene­ra­tief model voor teksten. Soms kan dat leiden tot een ogen­schijn­lijk redelijke conver­satie, maar het is heel gemak­ke­lijk te onder­scheiden van een mens. Als je bijvoor­beeld onzin invoert, zal een mens dat onmid­del­lijk herkennen, maar ChatGPT zal dan proberen dat te verwerken en erop te reageren. ChatGPT maakt het schrijven tekst toegan­ke­lijker, met als gevolg dat meer mensen zonder tech­ni­sche vaar­dig­heden zich kunnen storten op cyber­cri­mi­na­li­teit, maar APT (Advanced Persis­tent Threat) en anderen werkten al jaren met auto­ma­ti­se­ring, dus voor hen verandert er niet veel. Scenario’s die we hebben gezien: Het schrijven van over­tui­gende phis­hing­mails, en dan met name voor BEC (Business email compro­mise), maar momenteel is er geen verbin­ding met internet. Als aanval­lers e‑mails gericht naar personen willen sturen, moeten de e‑mails worden gecom­bi­neerd met LinkedIn en derge­lijke. AI-modellen zoals ChatGPT dragen bij aan het creëren van meer variaties om digitale hand­te­ke­ningen minder effectief te maken, omdat het gemak­ke­lijker is de tekst­pa­tronen à la minute aan te passen. Ze kunnen bovendien tekst in meer talen genereren, wat leidt tot een grotere effec­ti­vi­teit, bijvoor­beeld voor het Nederlands.

Pin It on Pinterest

Share This