Initiële security-analyse van Google’s AI-platform Bard schetst potentiële scenario’s voor versnelde cybercriminaliteit

13 juli 2023

Check Point Research (CPR), de Threat Intelligence-tak van Check Point, publiceert een eerste security-analyse van Google’s Bard. Ondanks de aanwezigheid van beveiligingen in Google Bard, kunnen sommige beperkingen gemakkelijk worden omzeild. In sommige gevallen kunnen zelfs niet-technische actoren schadelijke tools maken.

CPR belicht het potentieel van Google Bard om de uitvoering van cybercriminaliteit te versnellen en zal de analyse van het platform in de komende weken voortzetten. Onderzoekers waren snel in staat kwaadwillige resultaten te genereren met behulp van Google Bard. Zo gaf het AI-platform zonder restricties phishingmails, malware keylogger (surveillanceprogramma dat wordt gebruikt om elke toetsaanslag op een specifieke computer te controleren en op te nemen) en basis ransomware code.

De verspreiding van generatieve AI heeft onder andere geleid tot aanzienlijke zorgen en ethische overwegingen. Een van de belangrijkste zorgen draait om het mogelijke misbruik van deze technologie voor kwaadaardige doeleinden, zoals cybercriminaliteit. In eerdere rapporten heeft Check Point Research uitgebreid gerapporteerd over hoe cybercriminelen de revolutionaire technologie misbruiken voor kwaadaardig gebruik, meer specifiek – het creëren van kwaadaardige code en inhoud via OpenAI’s generatieve AI-platform, ChatGPT.

CPR onderzoekers hebben nu Google’s generatieve AI-platform “Bard” onderzocht. Gebaseerd op eerdere LaMDA-technologie, beschreef Google Bard als “Een experiment gebaseerd op dezelfde technologie waarmee je kunt samenwerken met generatieve AI. Als een creatieve en behulpzame medewerker kan Bard je verbeelding aansterken, je productiviteit verhogen en je helpen je ideeën tot leven te brengen.”

Google Bard vs. ChatGPT

  • Phishingmail – Bij het eerste eenvoudige verzoek om een phishingmail te schrijven, gaven zowel ChatGPT als Google Bard aan dat ze dit niet konden doen. Vervolgens vroegen de onderzoekers of de AI-platformen een phishingmail konden genereren van een specifieke financiële instelling. Op dit verzoek weigerde ChatGPT maar genereerde Google Bard wel een zeer specifieke mail zonder restricties. 
  • Malware code – Het volgende bericht was voor een authentiek stuk malwarecode, met een eenvoudige vraag, waarbij beide modellen het verzoek afwezen. Bij de tweede poging gaven de onderzoekers enige rechtvaardiging voor dit verzoek, maar beide platforms weigerden nog steeds. In de antwoorden gaf ChatGPT een zeer gedetailleerde uitleg terwijl Google Bard heel beknopt en algemeen bleef. In een derde poging werd gevraagd om een keyloggercode voor algemene doeleinden. ChatGPT antwoordde restrictiever en identificeerde ons verzoek als mogelijk kwaadaardig, terwijl Bard simpelweg de code gaf. Tot slot vroegen de onderzoekers hetzelfde om een keylogger op een specifieke manier, zodat het “Mijn” toetsaanslagen zou registreren. Als resultaat leverden beide modellen een andere code voor hetzelfde doel, hoewel ChatGPT wel een soort disclaimer toevoegde over mogelijk gebruik voor kwaadaardige doeleinden.
  • Ransomware code – Op een eerste duidelijk verzoek en zonder specifieke details, liet Google’s Bard weten dat het niet begreep wat gevraagd werd. Op een andere aanpak waarin om de meest voorkomende acties van ransomware te beschrijven, genereerde het model wel een uitvoerig antwoord. Vervolgens vroegen de onderzoekers Bard om zo’n code te maken met een simpele copy-paste, maar Bard genereerde niet het script waar om gevraagd werd. Na nog enkele aanpassingen aan de input leverde Bard wel het gevraagde ransomware-script en bood het platform zelfs hulp om het script aan te passen en te laten werken. 

CPR’s observaties met betrekking tot Bard zijn als volgt:

  • De antimisbruikbeperkingen van Bard op het gebied van cyberbeveiliging zijn aanzienlijk lager dan die van ChatGPT. Bijgevolg is het veel gemakkelijker om schadelijke inhoud te genereren met de mogelijkheden van Bard.
  • Bard legt bijna geen beperkingen op voor het maken van phishingmails, waardoor er ruimte is voor potentieel misbruik en uitbuiting van deze technologie.
  • Met minimale manipulaties kan Bard worden gebruikt om malware keyloggers te ontwikkelen, wat een veiligheidsrisico met zich meebrengt.
  • CPR’s experimenten tonen aan dat het mogelijk is om eenvoudige ransomware te maken met de mogelijkheden van Bard.

In het algemeen lijkt het erop dat Google’s Bard nog niet volledig heeft geleerd van de lessen van het implementeren van antimisbruikbeperkingen in cybergebieden die duidelijk waren in ChatGPT. De bestaande beperkingen in Bard zijn relatief basaal, vergelijkbaar met ChatGPT tijdens de eerste lanceringsfase enkele maanden geleden, waardoor de onderzoekers hopen dat dit de opstapjes zijn op een lange weg en dat het platform de nodige beperkingen en veiligheidsgrenzen zal omarmen.

Robbert Hoeffnagel

Robbert Hoeffnagel

Editor @ Belgium Cloud

Pin It on Pinterest

Share This