De recente brief met de oproep een pauze in te lassen bij de ontwikkeling van generatieve AI-tools benadrukt de groeiende bezorgdheid over het mogelijke misbruik van krachtige technologieën zoals ChatGPT. De voorzichtigheid met betrekking tot de technologie neemt toe in de beveiligingswereld.
Uit onderzoek van Darktrace blijkt dat 82 procent van de wereldwijde werknemers zich zorgen maakt over cybercriminelen die Generative AI gebruiken om phishing-e-mails te maken, vertelt Pieter Jansen, Senior Vice President of Cyber Innovation, Darktrace. Het probleem is dat de generative AI-race een wereldwijde race is. Dat betekent dat een ontwikkelingsstop van zes maanden een internationale consensus vereist om de uitrol van nieuwe Gen-AI-modellen te stoppen, om vervolgens een consensus te bereiken over hoe deze nieuwe technologie moet worden gereguleerd.
In beide gevallen is de kans klein tot nihil. Een periode van zes maanden is sowieso kort in de technologiewereld, wat de vraag oproept wat in die tijd haalbaar is, zowel vanuit het oogpunt van begrip als regelgeving.
AI-regulering en de vraag wie aansprakelijk moet worden gesteld voor verkeerde toepassingen van alle soorten AI en automatisering, niet alleen Gen AI, is een belangrijke uitdaging. Wetgeving over het morele en veilige gebruik van deze technologieën blijft een dringende uitdaging voor wetgevers met sectorspecifieke kennis. Het bereik van de use-cases is namelijk grenzeloos; van gezondheidszorg tot ruimtevaart.
AI-regelgeving moet zich richten op de toepassing – niet op de algoritmen zelf. Sectorale regelgeving die kijkt naar de uitdaging van de industrie en ingaat op de vragen “Is dit iets waarvan we willen dat een computer het aankan? Zo ja, hoe? Hoe zou de relatie tussen mens en AI eruit moeten zien?” zal cruciaal zijn naarmate we blijven worstelen met de risico’s die inherent zijn aan nieuwe innovatie. Een pauze in de ontwikkeling van deze technologieën zal dit niet bereiken, ook al zou het haalbaar zijn.
Tenslotte zal een ontwikkelingspauze ook de innovatie van cybercriminelen met snode doeleinden niet stoppen. Gelukkig hebben verdedigers al minstens tien jaar onderzoek gedaan naar het gebruik van AI aan de kant van de aanvaller – en we zien nu al de voordelen van het gebruik van AI om terug te vechten.