WatchGuard: 5 securityvoorspellingen voor 2023

12 januari 2023

Van leve­ran­ciers­va­li­datie als nieuwe bedrijfstak tot social engi­nee­ring-aanvallen op MFA-systemen. Watch­Guard Tech­no­lo­gies doet 5 voor­spel­lingen op het gebied van security voor 2023.

1. Cyber­ver­ze­ke­ringen worden duurder – Zowel de kosten als de nale­vings­eisen van cyber­ver­ze­ke­ringen zijn de afgelopen jaren gestegen. Dat ligt voor­na­me­lijk aan de zware verliezen die zij hebben geleden sinds zij opties voor cybe­r­af­per­sing begonnen aan te bieden. 

Sommige sectoren zullen het in 2023 waar­schijn­lijk moei­lijker hebben dan andere. Verze­ke­raars beseffen dat bepaalde sectoren een aantrek­ke­lijker doelwit zijn voor cyber­cri­mi­nelen en zullen hen dwingen zich aan de strengste compli­an­ce­voor­schriften te houden en de hoogste kosten te dragen. Zo vermoeden wij dat de gezond­heids­zorg, kritieke infra­struc­tuur, de finan­ciële sector en managed service providers (MSP’s) strengere cyber­be­vei­li­gings­eisen van verze­ke­raars zullen krijgen.

2. Evaluatie en validatie van cyber­be­vei­li­ging wordt een belang­rijke factor bij leve­ran­cier- en part­ner­se­lectie – De afgelopen twee jaar stonden bol van wat wel vijf jaar aan inbreuken op de digitale toele­ve­rings­keten lijkt. Met de toename van deze supply­chain-aanvallen maken orga­ni­sa­ties zich steeds meer zorgen over de bevei­li­ging van de partners en leve­ran­ciers. Nadat ze zoveel tijd hebben besteed aan het verfijnen van hun eigen verde­di­ging, zou het frus­tre­rend zijn om te vallen door bevei­li­gings­fouten van iemand anders.

Daardoor maken bedrijven de interne bevei­li­gings­prak­tijken van een leve­ran­cier een belang­rijk onderdeel van de product­keuze. Leve­ran­ciers­va­li­datie en risi­co­ana­lyse door derden zijn zelfs een nieuwe bedrijfstak geworden.

3. 2023 wordt het jaar van de eerste grote metaverse-hack – De (VR-)metaverse biedt nieuwe moge­lijk­heden voor uitbui­ting en social engi­nee­ring. Denk aan het kopiëren van de data van talloze camera’s en infrarood- (IR) en diep­te­sen­soren die hoofd‑, hand‑, vinger‑, gezichts- en oogbe­we­gingen volgen. Hackers zouden hiermee in de toekomst een virtuele deepfake van een online avatar kunnen maken die beweegt en handelt als het slachtoffer.

Deze poten­tiële drei­gings­factor lijkt nu nog ver weg. Toch denken we dat de eerste metaverse-aanval op bedrijven zal komen van een bekende bedrei­gings­vector die is aangepast aan de VR-toekomst. Virtuele verga­der­om­ge­vingen maken namelijk gebruik van dezelfde remote desktop-tech­no­lo­gieën als Microsoft’s Remote Desktop, of Virtual Network Computing (VNC). Dat zijn dezelfde type remote desktop-tech­no­lo­gieën waar cyber­cri­mi­nelen in het verleden talloze malen gebruik van hebben gemaakt.

4. Gebruik van MFA stimu­leert toename van social engi­nee­ring - Cyber­cri­mi­nelen zullen zich in 2023 agressief richten op gebrui­kers van multi­fac­to­r­au­then­ti­catie (MFA). De popu­la­ri­teit van MFA dwingt aanval­lers een manier te vinden om deze bevei­li­gings­tech­niek te omzeilen. Dit bevestigt wat we eerder hebben voorspeld: volgens een onderzoek van Thales, uitge­voerd door 451 Research, is het gebruik van MFA dit jaar met zes procent­punten gestegen tot 40%. Dit zal cyber­aan­val­lers ertoe aanzetten meer gebruik te maken van kwaad­aar­dige MFA-omzei­lings­tech­nieken bij hun gerichte geloofs­brie­ve­naan­vallen, omdat ze anders een bepaald soort slacht­offer mislopen. 

Wij verwachten dat in 2023 verschil­lende nieuwe MFA-kwets­baar­heden en omzei­lings­tech­nieken zullen opduiken. De meest voor­ko­mende manier waarop cyber­cri­mi­nelen deze oplos­singen zullen omzeilen is echter via slimme social engi­nee­ring. Het succes van push­bom­bar­de­menten is bijvoor­beeld niet per se een MFA-fout, maar een gevolg van menselijk handelen. Aanval­lers hoeven MFA niet te hacken als ze gebrui­kers kunnen misleiden of hen kunnen uitputten met een stort­vloed van goed­keu­rings­ver­zoeken die hen er uitein­de­lijk toe aanzetten op een kwaad­aar­dige link te klikken. Aanval­lers kunnen hun adversary-in-the-middle (AitM)-technieken ook aanpassen aan het MFA-proces en zo authen­ti­ca­tie­ses­sie­tokens buitmaken wanneer gebrui­kers legitiem inloggen.

5. AI-code­ringstools intro­du­ceren funda­men­tele kwets­baar­heden – Hoewel machine learning (ML) en kunst­ma­tige intel­li­gentie (AI) niet zo almachtig zijn geworden als sommige tech-evan­ge­listen beweren, zijn ze aanzien­lijk geëvo­lu­eerd en bieden ze veel nieuwe prak­ti­sche moge­lijk­heden. Zo kunnen AI/ML-tools nu ook code schrijven voor ontwik­ke­laars. GitHub’s Copilot is zo’n geau­to­ma­ti­seerd codeer­hulp­middel. Zoals bij elk AI/ML-algoritme is de kwaliteit van zijn output slechts zo goed als de kwaliteit van de trai­nings­ge­ge­vens die het gebruikt en de instruc­ties die het krijgt om mee te werken. Als je AI slechte of onveilige code geeft, kun je dat ook verwachten van de output.

Studies hebben al aange­toond dat tot 40% van de code die Copilot genereert exploi­teer­bare veilig­heids­lekken bevat, en dit percen­tage stijgt wanneer de eigen code van de ontwik­ke­laar kwets­baar­heden bevat. Tegen 2023 voor­spellen we dat een onwetende en/​of onervaren ontwik­ke­laar die te veel vertrouwt op Copilot, of een soort­ge­lijke AI-code­ringstool, een app zal uitbrengen die een kritieke kwets­baar­heid bevat die door geau­to­ma­ti­seerde code is geïntroduceerd.

Pin It on Pinterest

Share This