Initiële security-analyse van Google’s AI-platform Bard schetst potentiële scenario’s voor versnelde cybercriminaliteit

13 juli 2023

Check Point Research (CPR), de Threat Intel­li­gence-tak van Check Point, publi­ceert een eerste security-analyse van Google’s Bard. Ondanks de aanwe­zig­heid van bevei­li­gingen in Google Bard, kunnen sommige beper­kingen gemak­ke­lijk worden omzeild. In sommige gevallen kunnen zelfs niet-tech­ni­sche actoren scha­de­lijke tools maken. 

CPR belicht het poten­tieel van Google Bard om de uitvoe­ring van cyber­cri­mi­na­li­teit te versnellen en zal de analyse van het platform in de komende weken voort­zetten. Onder­zoe­kers waren snel in staat kwaad­wil­lige resul­taten te genereren met behulp van Google Bard. Zo gaf het AI-platform zonder restric­ties phis­hing­mails, malware keylogger (surveil­lan­ce­pro­gramma dat wordt gebruikt om elke toets­aan­slag op een speci­fieke computer te contro­leren en op te nemen) en basis ransom­ware code.

De versprei­ding van gene­ra­tieve AI heeft onder andere geleid tot aanzien­lijke zorgen en ethische over­we­gingen. Een van de belang­rijkste zorgen draait om het mogelijke misbruik van deze tech­no­logie voor kwaad­aar­dige doel­einden, zoals cyber­cri­mi­na­li­teit. In eerdere rapporten heeft Check Point Research uitge­breid gerap­por­teerd over hoe cyber­cri­mi­nelen de revo­lu­ti­o­naire tech­no­logie misbruiken voor kwaad­aardig gebruik, meer specifiek – het creëren van kwaad­aar­dige code en inhoud via OpenAI’s gene­ra­tieve AI-platform, ChatGPT.

CPR onder­zoe­kers hebben nu Google’s gene­ra­tieve AI-platform “Bard” onder­zocht. Gebaseerd op eerdere LaMDA-tech­no­logie, beschreef Google Bard als “Een expe­ri­ment gebaseerd op dezelfde tech­no­logie waarmee je kunt samen­werken met gene­ra­tieve AI. Als een creatieve en behulp­zame mede­werker kan Bard je verbeel­ding aansterken, je produc­ti­vi­teit verhogen en je helpen je ideeën tot leven te brengen.”

Google Bard vs. ChatGPT

  • Phis­hing­mail – Bij het eerste eenvou­dige verzoek om een phis­hing­mail te schrijven, gaven zowel ChatGPT als Google Bard aan dat ze dit niet konden doen. Vervol­gens vroegen de onder­zoe­kers of de AI-plat­formen een phis­hing­mail konden genereren van een speci­fieke finan­ciële instel­ling. Op dit verzoek weigerde ChatGPT maar gene­reerde Google Bard wel een zeer speci­fieke mail zonder restricties. 
  • Malware code - Het volgende bericht was voor een authen­tiek stuk malwa­re­code, met een eenvou­dige vraag, waarbij beide modellen het verzoek afwezen. Bij de tweede poging gaven de onder­zoe­kers enige recht­vaar­di­ging voor dit verzoek, maar beide platforms weigerden nog steeds. In de antwoorden gaf ChatGPT een zeer gede­tail­leerde uitleg terwijl Google Bard heel beknopt en algemeen bleef. In een derde poging werd gevraagd om een keylog­ger­code voor algemene doel­einden. ChatGPT antwoordde restric­tiever en iden­ti­fi­ceerde ons verzoek als mogelijk kwaad­aardig, terwijl Bard simpelweg de code gaf. Tot slot vroegen de onder­zoe­kers hetzelfde om een keylogger op een speci­fieke manier, zodat het “Mijn” toets­aan­slagen zou regi­streren. Als resultaat leverden beide modellen een andere code voor hetzelfde doel, hoewel ChatGPT wel een soort disclaimer toevoegde over mogelijk gebruik voor kwaad­aar­dige doeleinden.
  • Ransom­ware code – Op een eerste duidelijk verzoek en zonder speci­fieke details, liet Google’s Bard weten dat het niet begreep wat gevraagd werd. Op een andere aanpak waarin om de meest voor­ko­mende acties van ransom­ware te beschrijven, gene­reerde het model wel een uitvoerig antwoord. Vervol­gens vroegen de onder­zoe­kers Bard om zo’n code te maken met een simpele copy-paste, maar Bard gene­reerde niet het script waar om gevraagd werd. Na nog enkele aanpas­singen aan de input leverde Bard wel het gevraagde ransom­ware-script en bood het platform zelfs hulp om het script aan te passen en te laten werken. 

CPR’s obser­va­ties met betrek­king tot Bard zijn als volgt:

  • De anti­mis­bruik­be­per­kingen van Bard op het gebied van cyber­be­vei­li­ging zijn aanzien­lijk lager dan die van ChatGPT. Bijgevolg is het veel gemak­ke­lijker om scha­de­lijke inhoud te genereren met de moge­lijk­heden van Bard.
  • Bard legt bijna geen beper­kingen op voor het maken van phis­hing­mails, waardoor er ruimte is voor poten­tieel misbruik en uitbui­ting van deze technologie.
  • Met minimale mani­pu­la­ties kan Bard worden gebruikt om malware keylog­gers te ontwik­kelen, wat een veilig­heids­ri­sico met zich meebrengt.
  • CPR’s expe­ri­menten tonen aan dat het mogelijk is om eenvou­dige ransom­ware te maken met de moge­lijk­heden van Bard.

In het algemeen lijkt het erop dat Google’s Bard nog niet volledig heeft geleerd van de lessen van het imple­men­teren van anti­mis­bruik­be­per­kingen in cyber­ge­bieden die duidelijk waren in ChatGPT. De bestaande beper­kingen in Bard zijn relatief basaal, verge­lijk­baar met ChatGPT tijdens de eerste lance­rings­fase enkele maanden geleden, waardoor de onder­zoe­kers hopen dat dit de opstapjes zijn op een lange weg en dat het platform de nodige beper­kingen en veilig­heids­grenzen zal omarmen.

Pin It on Pinterest

Share This