Security-firma waarschuwt tegen te groot vertrouwen in AI voor IT-beveiliging

26 april 2024

Security-firma Cyber Upgrade waar­schuwt tegen een te grote afhan­ke­lijk­heid van AI voor security-doel­einden. Terwijl AI de moge­lijk­heden van cyber­se­cu­rity aanzien­lijk versterkt, bena­drukken zij het belang van menselijk toezicht bij het opzetten van adequate verdedigingslinies.

De laatste tijd is de aantrek­kings­kracht van kunst­ma­tige intel­li­gentie (AI) als hulp­middel in cyber­se­cu­rity steeds groter geworden. Logisch als we ons reali­seren dat kritieke infra­struc­turen en grote orga­ni­sa­ties, zoals banken en zieken­huizen, te maken hebben gehad met aanvallen met een frequentie van soms wel 10 of 11 aanvallen per minuut.

AI-aange­dreven tools worden daarom steeds vaker geïn­te­greerd in moderne cyber­se­cu­rity-frame­works. Deze bieden grote moge­lijk­heden op het gebied van drei­gings­de­tectie en ‑respons, vooral waardevol in repe­ti­tieve taken zoals het onder­zoeken van grote datasets. “Het vermogen van AI om enorme hoeveel­heden gegevens met onge­loof­lijke snelheid te verwerken en te analy­seren, trans­for­meert inderdaad onze verde­di­gings­mo­ge­lijk­heden,” zegt Aurimas Bakas, CEO van Cyber Upgrade, een leve­ran­cier van op AI geba­seerde cyber­se­cu­rity-oplos­singen. “Dit betekent echter absoluut niet dat de noodzaak van geschoolde cyber­se­cu­rity-profes­si­o­nals wordt geëli­mi­neerd. Het benadrukt eerder de noodzaak van het aannemen van een geba­lan­ceerde aanpak waarbij AI mense­lijke besluit­vor­ming verbetert.”

Hoewel AI patronen en afwij­kingen kan detec­teren die de mense­lijke moge­lijk­heden te boven gaan, is de effec­ti­vi­teit ervan beperkt door de kwaliteit van de gegevens waaruit het leert, zorg­vuldig gese­lec­teerde gebruiks­ca­sus­voor­beelden, en para­me­ters ingesteld door mense­lijke operators. “Een te grote afhan­ke­lijk­heid van AI kan orga­ni­sa­ties een vals gevoel van veilig­heid geven. Als zij niet goed worden beheerd, kunnen AI-systemen subti­li­teiten of opkomende bedrei­gingen over het hoofd zien die nog niet eerder zijn gevonden of adequaat zijn gede­fi­ni­eerd. Dit is een cruciaal onder­scheid dat de noodzaak benadrukt van een actief ontwik­kel­team dat tijdig updates biedt in reactie op de nieuwste gevaren,” legt Bakas uit.

De inte­gratie van AI-tools in cyber­se­cu­rity is geen vervan­ging voor mense­lijke expertise, maar een aanvul­ling die de effec­ti­vi­teit van moderne bevei­li­gings­maat­re­gelen verbetert. “De rol van cyber­se­cu­ri­ty­pro­fes­si­o­nals is nu crucialer dan ooit bij het toezicht houden op AI-systemen. Ze zorgen ervoor dat AI binnen de juiste context opereert en blijft leren van de best beschik­bare gegevens,” voegt hij toe.

“Terwijl rudi­men­taire cyber­ver­de­di­gings­taken, zoals wacht­woord­be­heer of anti­vi­rusim­ple­men­ta­ties, aan auto­ma­ti­se­ring kunnen worden toever­trouwd, is het onver­ant­woord om de huidige moge­lijk­heden van AI te promoten als waardig voor autonome cyber­ver­de­di­ging, vooral bij het beschermen van gevoelige gegevens,” waar­schuwt Bakas. Zijn bedrijf richt zich op het ontwik­kelen van cyber­se­cu­rity-oplos­singen die AI-tech­no­logie inte­greren met nauwgezet toezicht door experts. “Onze aanpak zorgt ervoor dat elke klant profi­teert van zowel geavan­ceerde tech­no­logie als van het stra­te­gi­sche denken van ervaren profes­si­o­nals. Deze tweelaags verde­di­gings­stra­tegie is zeer belang­rijk in een tijd waarin AI alleen simpelweg niet geavan­ceerd genoeg is om veilig­heid te garan­deren”, aldus Bakas.

Pin It on Pinterest

Share This