Sophos toont aan dat ChatGPT een co-piloot voor cyberbeveiliging kan zijn

20 maart 2023

Sophos heeft onder­zocht hoe de cyber­se­cu­rity-industrie GPT‑3 – het taalmodel achter het inmiddels bekende ChatGPT-framework – kan inzetten als co-piloot om cyber­cri­mi­nelen te verslaan. Een nieuw rapport met de titel “Applying AI Language Proces­sing to Cyber Defenses” geeft inzicht in de projecten die zijn ontwik­keld door Sophos X‑Ops met behulp van de grote taal­mo­dellen van GPT‑3. Zo wil het bedrijf het zoeken naar verdachte acti­vi­teit in datasets van security software makke­lijker maken, nauw­keu­riger spam filteren en de analyse van aanvallen met ‘living off the land’ binaries (LOLBin) versnellen. Intussen heeft OpenAI ook GPT‑4 gelanceerd.

“Sinds de onthul­ling van ChatGPT door OpenAI in november is de security-gemeen­schap vooral gericht op de poten­tiële risico’s die deze nieuwe tech­no­logie met zich meebrengt. Kan de AI wannabee-aanval­lers helpen bij het schrijven van malware of cyber­cri­mi­nelen helpen met het schrijven van over­tui­gende phishing-e-mails? Misschien wel, maar bij Sophos zien we AI als een bond­ge­noot in plaats van een vijand. Het is daardoor een tech­no­lo­gi­sche hoeksteen voor Sophos, en voor GPT‑3 geldt niets anders. De gemeen­schap moet niet alleen aandacht hebben voor eventuele risico’s, maar ook voor de kansen die GPT‑3 met zich meebrengt”, aldus Sean Gallagher, Principal Threat Researcher bij Sophos.

Sophos X‑Ops-onder­zoe­kers, waaronder SophosAI Principal Data Scientist Younghoo Lee, hebben gewerkt aan drie proto­types die het poten­tieel van GPT‑3 als hulp­middel voor bevei­li­gings­ex­perts aantonen. De proto­types gebruiken een techniek met de naam ‘few-shot learning’ om het AI-model te trainen met slechts een paar data samples. Daardoor is er minder behoefte aan het verza­melen van een grote hoeveel­heid vooraf geclas­si­fi­ceerde gegevens.

De eerste toepas­sing die Sophos met deze methode testte was een interface voor zoek­op­drachten in gewone taal om verdachte acti­vi­teit in tele­me­trie van bevei­li­gings­soft­ware te onder­zoeken. Met deze interface kunnen verde­di­gers de tele­me­trie filteren met Engelse basis­com­man­do’s, zodat ze geen SQL of de structuur van een database hoeven te begrijpen.

Vervol­gens testte Sophos een nieuwe spam­filter met behulp van ChatGPT. Het stelde vast dat – in verge­lij­king met andere machine learning-modellen voor spam­fil­te­ring – de filter met GPT‑3 een stuk nauw­keu­riger was. Tenslotte maakten Sophos-onder­zoe­kers een programma om het proces voor reverse-engi­nee­ring van de comman­do­re­gels van LOLBins te vereen­vou­digen. Zulke reverse-engi­nee­ring is erg complex, maar ook van groot belang om het gedrag van LOLBins te door­gronden en dit soort aanvallen in de toekomst een halt toe te roepen.

“Eén van de groeiende zorgen binnen bevei­li­gings­centra is de enorme hoeveel­heid ‘ruis’ die binnen­komt. Er zijn gewoon teveel meldingen en detecties, en veel bedrijven hebben te maken met beperkte middelen. We hebben bewezen dat we met zoiets als GPT‑3 bepaalde arbeids­in­ten­sieve processen kunnen vereen­vou­digen en waar­de­volle tijd kunnen besparen. We werken al aan de inte­gratie van enkele proto­types in onze producten, en we hebben de resul­taten van onze inspan­ningen beschik­baar gesteld op onze GitHub voor degenen die geïn­te­res­seerd zijn in het testen van GPT‑3. Wij geloven dat GPT‑3 in de toekomst een co-piloot kan worden voor bevei­li­gings­ex­perts,” aldus Gallagher.

Pin It on Pinterest

Share This