In het opkomende gebied van AI-governance heeft de Europese Unie een belangrijke stap gezet door de AI Act voor te stellen – een uitgebreid wetgevingskader dat is ontworpen om AI-systemen te reguleren.
De wet deelt AI-systemen in vier categorieën in op basis van hun risico’s: onaanvaardbaar risico, hoog risico, beperkt risico en laag (of minimaal) risico. Dit kader is bedoeld om een balans te vinden tussen het stimuleren van innovatie en het waarborgen van grondrechten, gezondheid, veiligheid, milieu, democratie en de rechtsstaat.
De AI-wet roept belangrijke vragen op over hoe we generatieve AI (GenAI) moeten reguleren, een snel ontwikkelend gebied dat systemen zoals ChatGPT en grote taalmodellen (LLM’s) omvat. In dit artikel gaan we in op de gevolgen van de AI-wet voor GenAI en verkennen we verschillende voorgestelde manieren om deze transformatieve technologie te reguleren.
Het snijvlak van GenAI en de AI-wet
De voorgestelde wetgeving leunt zwaar op bestaande EU-wetten, zoals de General Data Protection Regulation (GDPR) en de Digital Services Act, en vereist dat de LLM’s achter GenAI voldoende waarborgen hebben tegen het genereren van content die deze wetten schendt.
Het erkent dat deze zogenaamde basismodellen, zoals OpenAI’s GPT-4, waar ChatGPT op draait, speciale aandacht vereisen omdat ze een breed scala aan algemene taken aankunnen, dus fouten of vertekeningen in het onderliggende model kunnen mogelijk een groot aantal toepassingen beïnvloeden die bovenop deze modellen zijn gebouwd.
Dientengevolge zullen aanbieders van GenAI-systemen worden onderworpen aan aanvullende transparantie-eisen, waaronder:
- AI-generatie bekendmaken: Aanbieders moeten gebruikers informeren dat de inhoud die ze tegenkomen door AI is gegenereerd. Duidelijke communicatie is van cruciaal belang, vooral wanneer AI interactie heeft met natuurlijke personen.
- Verantwoord ontwerp: Aanbieders dragen de verantwoordelijkheid voor het ontwerpen en trainen van hun modellen met waarborgen om het genereren van illegale of schadelijke inhoud te voorkomen. Dit omvat ook het respecteren van fundamentele rechten, waaronder de vrijheid van meningsuiting.
- Transparantie van gegevens: Aanbieders moeten samenvattingen publiceren van hun gebruik van trainingsgegevens die auteursrechtelijk beschermd kunnen zijn.
Het is belangrijk om te verduidelijken dat deze vereisten foundationmodellen niet classificeren als AI-systemen met een hoog risico. In plaats daarvan zijn ze bedoeld om GenAI op één lijn te brengen met de bredere doelen van de AI Act-bescherming van fundamentele rechten, gezondheid, veiligheid, milieu, democratie en de rechtsstaat.
De regulering van GenAI door de AI-wet betekent een cruciaal moment in de ontwikkeling naar een verantwoorde toepassing van AI. Hoewel het een veelbelovend precedent schept, is er nog veel werk aan de winkel. Het is van cruciaal belang om een duidelijk en aanpasbaar kader te ontwikkelen dat rekening houdt met de veelzijdige aard van GenAI. Bovendien reikt deze discussie verder dan de grenzen van Europa, aangezien de hele wereld worstelt met de complexe uitdaging om GenAI te reguleren en tegelijkertijd innovatie te koesteren en maatschappelijke belangen te beschermen.
Andere benaderingen om GenAI te reguleren
Buiten de EU ontwikkelen andere regio’s en landen wetgeving om het gebruik van AI te reguleren. Maar het maken van nieuwe wetten is meestal een langzaam proces en wetgevers kunnen moeite hebben om het potentieel van GenAI volledig te begrijpen en gelijke tred te houden met de ontwikkelingen.
Daarom zijn er veel andere benaderingen voorgesteld om de ethische, juridische en maatschappelijke uitdagingen van GenAI aan te pakken. Hier volgen enkele van de belangrijkste strategieën en voorstellen:
- Technologiebedrijven en AI-ontwikkelaars werken aan de ontwikkeling van vrijwillige richtlijnen en best practices voor de ontwikkeling en inzet van GenAI. Hoewel zelfregulering door de industrie snel en flexibel kan zijn, bestaat er bezorgdheid over de effectiviteit en het potentieel voor vooroordelen.
- Sommige organisaties en instellingen promoten ethische AI-raamwerken. Het IEEE (Institute of Electrical and Electronics Engineers) heeft bijvoorbeeld een Global Initiative on Ethics of Autonomous and Intelligent Systems ontwikkeld, met richtlijnen voor ethische AI.
- AI-impactbeoordelingen proberen de mogelijke sociale, economische en ethische gevolgen van het gebruik van GenAI-systemen te evalueren, zodat beleidsmakers weloverwogen beslissingen kunnen nemen.
- Sommige regelgevingen richten zich op robuust gegevensbeheer, waarbij ervoor wordt gezorgd dat gegevens die worden gebruikt voor AI-training representatief, divers en ethisch verkregen zijn. Strengere wetten voor gegevensprivacy, zoals de GDPR in Europa, spelen hierbij al een rol.
- Sommige initiatieven pleiten voor inspraak van het publiek in het besluitvormingsproces met betrekking tot GenAI-regelgeving. Publieke consultaties en input kunnen ervoor zorgen dat AI-systemen aansluiten bij maatschappelijke waarden en behoeften.
- Internationale organisaties zoals de Verenigde Naties, via de adviesraad op hoog niveau voor AI, onderzoeken manieren om wereldwijde normen en afspraken te maken over het gebruik, de ethiek en de regulering van GenAI.
- Het oprichten van onafhankelijke AI-ethische commissies of toezichtsorganen kan helpen bij het monitoren en handhaven van AI-regelgeving en ervoor zorgen dat GenAI-systemen zich houden aan ethische en wettelijke normen.
- Er zijn verplichte AI-impactrapportagemechanismen voorgesteld die organisaties verplichten om regelmatig te rapporteren over de maatschappelijke effecten van hun GenAI-systemen. Deze informatie kan dan worden gebruikt voor verantwoording en regulering.
Terwijl GenAI zich blijft ontwikkelen en verschillende aspecten van ons leven blijft beïnvloeden, blijft het vinden van de juiste balans tussen innovatie en regulering een dynamische en evoluerende onderneming – een die de toekomst van AI voor de komende generaties zal bepalen.