Home Bots in Society AI Act krijgt vorm in Brussel

AI Act krijgt vorm in Brussel

door Pieter Werner

Vorige week bereikten leden van het Europees Parlement een akkoord met de EC over de AI-wet. Dit wetsvoorstel heeft tot doel ervoor te zorgen dat AI in Europa veilig is, de grondrechten en de democratie respecteert, en bedrijven in staat stelt te bloeien en uit te breiden. Deze overeenkomst geeft aan wat de uiteindelijke vorm wordt van de definitieve versie van de AI-wet.

Onderhandelaars van het Parlement en de Raad hebben een voorlopig akkoord bereikt over de Wet op de Kunstmatige Intelligentie. Deze verordening heeft tot doel ervoor te zorgen dat de grondrechten, de democratie, de rechtsstaat en de duurzaamheid van het milieu worden beschermd tegen AI met een hoog risico, terwijl de innovatie wordt gestimuleerd en Europa een leider op dit gebied wordt. De regels leggen verplichtingen vast voor AI op basis van de potentiële risico’s en de mate van impact ervan.

Een belangrijk aspect van de wet is het instellen van waarborgen voor AI voor algemene doeleinden, waardoor wordt gegarandeerd dat deze technologieën worden ontwikkeld en gebruikt op een manier die ethische normen en maatschappelijke waarden respecteert. Dit omvat maatregelen om transparantie, verantwoordingsplicht en de bescherming van de grondrechten te garanderen.

Biometrische identificatie

Een ander onderdeel van de wet is de strikte beperking van het gebruik van biometrische identificatiesystemen door wetshandhavingsinstanties. Deze stap komt tegemoet aan de groeiende zorgen over privacy en burgerlijke vrijheden, vooral in de context van surveillance en publieke monitoring. Door duidelijke grenzen te stellen, wil de wet de voordelen van deze technologieën in evenwicht brengen met de noodzaak om individuele vrijheden te beschermen.

Bovendien introduceert de wet een regelrecht verbod op bepaalde AI-toepassingen die als schadelijk of onethisch worden beschouwd. Dit omvat het verbod op sociale scoresystemen, die zouden kunnen leiden tot discriminatie en maatschappelijke verdeeldheid, en op AI-systemen die zijn ontworpen om de kwetsbaarheden van gebruikers te manipuleren of te exploiteren. Deze verboden weerspiegelen een engagement om misbruik van AI te voorkomen op een manier die individuen zou kunnen schaden of democratische waarden zou kunnen ondermijnen.

Consumenten krijgen het recht om klachten in te dienen en zinvolle uitleg te eisen over beslissingen die door AI-systemen worden genomen. Deze bepaling zorgt voor meer transparantie en verantwoordingsplicht, waardoor individuen besluiten die voor hen nadelige gevolgen kunnen hebben, kunnen aanvechten en verhaal kunnen halen.

Ten slotte stelt de wet een handhavingsmechanisme in, met aanzienlijke boetes voor niet-naleving. Entiteiten die de bepalingen van de wet overtreden, kunnen boetes opgelegd krijgen die variëren van 35 miljoen euro of 7% van hun wereldwijde omzet tot 7,5 miljoen euro of 1,5% van hun omzet.

Verboden applicaties

De AI-wet, die de potentiële bedreigingen voor de rechten van burgers en de beginselen van de democratie erkent die bepaalde toepassingen van kunstmatige intelligentie (AI) vormen, heeft een reeks verboden ingevoerd die gericht zijn op het beschermen van individuele vrijheden en maatschappelijke waarden.

Een belangrijk aspect van deze wetgeving is het verbod op biometrische categorisatiesystemen die gevoelige kenmerken verwerken, zoals politieke, religieuze of filosofische overtuigingen, seksuele geaardheid en ras. Deze maatregel heeft tot doel discriminatie te voorkomen en de privacy en waardigheid van individuen te beschermen tegen opdringerige en mogelijk bevooroordeelde AI-technologieën.

Een ander zorgpunt dat door de wet wordt aangepakt, is het ongericht schrapen van gezichtsbeelden van internet of camerabeelden voor het maken van databases voor gezichtsherkenning. Dit verbod is een directe reactie op privacyproblemen en het potentieel voor massale surveillance, en zorgt ervoor dat gezichtsherkenningstechnologieën niet worden misbruikt op een manier die inbreuk maakt op de persoonlijke vrijheden en privacy.

Werkplek

Op de werkplek en in onderwijsinstellingen verbiedt de wet ook het gebruik van systemen voor emotieherkenning. Deze technologieën, die beweren de emotionele toestand van een persoon te beoordelen, geven aanleiding tot ernstige zorgen over privacy, toestemming en de nauwkeurigheid van dergelijke beoordelingen. Door het gebruik ervan in deze omgevingen te verbieden, probeert de wet individuen te beschermen tegen onbewezen en potentieel invasieve technologieën.

Sociale scoresystemen, die individuen beoordelen op basis van hun sociale gedrag of persoonlijke kenmerken, zijn ook expliciet verboden. Dergelijke systemen vormen een aanzienlijke bedreiging voor de eerlijkheid en gelijkheid en kunnen mogelijk leiden tot discriminatie en maatschappelijke verdeeldheid op basis van willekeurige of bevooroordeelde criteria.

Bovendien verbiedt de wet AI-systemen die zijn ontworpen om menselijk gedrag te manipuleren en zo de vrije wil van een individu te omzeilen. Deze maatregel komt tegemoet aan de groeiende bezorgdheid over AI-technologieën die de beslissingen, het gedrag of de overtuigingen van mensen onnodig kunnen beïnvloeden, waardoor hun autonomie wordt ondermijnd.

Ten slotte neemt de wet stelling tegen het gebruik van AI om de kwetsbaarheden van specifieke groepen mensen te exploiteren, bijvoorbeeld op basis van leeftijd, handicap, sociale of economische situatie. Deze bepaling heeft tot doel de meest kwetsbare leden van de samenleving te beschermen tegen het doelwit of misbruik door AI-systemen die hun kwetsbaarheid zouden kunnen verergeren of tot uitbuiting zouden kunnen leiden.

Vrijstellingen voor wetshandhaving

De onderhandelaars waren het eens over een reeks waarborgen en beperkte uitzonderingen ionen voor het gebruik van biometrische identificatiesystemen (RBI) in publiek toegankelijke ruimtes voor wetshandhavingsdoeleinden, onder voorbehoud van voorafgaande rechterlijke toestemming en voor strikt gedefinieerde lijsten van misdrijven. “Post-remote” RBI zou uitsluitend worden gebruikt bij het gericht zoeken naar een persoon die veroordeeld is of verdacht wordt van het plegen van een ernstig misdrijf.

De AI-wet introduceert genuanceerde regelgeving rond het gebruik van ‘real-time’ biometrische identificatie op afstand (RBI), die een evenwichtige benadering weerspiegelt van het inzetten van technologie voor de openbare veiligheid en tegelijkertijd de individuele rechten beschermt. Het gebruik van real-time RBI, een geavanceerd instrument dat personen kan identificeren of verifiëren aan de hand van biometrische gegevens, is onderworpen aan strenge voorwaarden, waardoor de inzet ervan zowel noodzakelijk als evenredig is aan de nagestreefde doelstellingen.

Volgens deze regelgeving is de toepassing van real-time RBI strikt beperkt in termen van zowel tijd als locatie, waarbij het gebruik ervan alleen is toegestaan voor specifieke, kritische doeleinden. Een van de belangrijkste toegestane toepassingen van deze technologie is het gericht zoeken naar slachtoffers van ernstige misdrijven, zoals ontvoering, mensenhandel en seksuele uitbuiting. In deze gevallen kan de snelle en nauwkeurige identificatie van slachtoffers van cruciaal belang zijn bij reddingsoperaties en bij het voorkomen van verdere schade.

Een ander toegestaan gebruik van real-time RBI is het voorkomen van specifieke en onmiddellijke terroristische dreigingen. In scenario’s waarin er een duidelijk en aanwezig gevaar bestaat dat uitgaat van terroristische activiteiten, kan de technologie worden ingezet als een instrument om dreigingen snel te identificeren en te neutraliseren, waardoor de openbare veiligheid en de nationale veiligheid worden beschermd.

Bovendien kan real-time RBI worden gebruikt voor de lokalisatie of identificatie van personen die ervan verdacht worden ernstige strafbare feiten te hebben gepleegd. Deze misdrijven worden expliciet in de verordening genoemd en omvatten ernstige misdrijven zoals terrorisme, mensenhandel, seksuele uitbuiting, moord, ontvoering, verkrachting, gewapende overvallen, deelname aan een criminele organisatie en milieucriminaliteit. In deze contexten dient de technologie als een cruciaal hulpmiddel bij wetshandhavingsinspanningen, waardoor verdachten kunnen worden aangehouden en verdere criminele activiteiten kunnen worden voorkomen.

Verplichtingen voor risicovolle systemen

Voor AI-systemen die als risicovol zijn geclassificeerd (vanwege hun aanzienlijke potentiële schade aan de gezondheid, de veiligheid, de grondrechten, het milieu, de democratie en de rechtsstaat) zijn duidelijke verplichtingen overeengekomen. De leden van het Europees Parlement zijn er met succes in geslaagd om onder andere een verplichte effectbeoordeling van de grondrechten op te nemen, die ook van toepassing is op de verzekerings- en banksector. AI-systemen die worden gebruikt om de uitslag van verkiezingen en het kiezersgedrag te beïnvloeden, worden ook als hoog risico geclassificeerd. Burgers zullen het recht hebben om klachten in te dienen over AI-systemen en uitleg te krijgen over beslissingen op basis van risicovolle AI-systemen die van invloed zijn op hun rechten.

Om rekening te houden met het brede scala aan taken die AI-systemen kunnen uitvoeren en de snelle uitbreiding van de mogelijkheden ervan, is overeengekomen dat AI-systemen voor algemene doeleinden (GPAI) en de GPAI-modellen waarop ze zijn gebaseerd, zullen moeten voldoen aan transparantievereisten. aanvankelijk door het Parlement voorgesteld. Deze omvatten het opstellen van technische documentatie, het naleven van de EU-auteursrechtwetgeving en het verspreiden van gedetailleerde samenvattingen over de inhoud die voor training wordt gebruikt.

Voor GPAI-modellen met een grote impact en systeemrisico’s zijn de onderhandelaars van het Parlement erin geslaagd strengere verplichtingen veilig te stellen. Als deze modellen aan bepaalde criteria voldoen, zullen ze modelevaluaties moeten uitvoeren, systeemrisico’s moeten beoordelen en beperken, vijandige tests moeten uitvoeren, aan de Commissie moeten rapporteren over ernstige incidenten, de cyberbeveiliging moeten waarborgen en moeten rapporteren over hun energie-efficiëntie. EP-leden benadrukten ook dat GPAI’s met systeemrisico’s, totdat er geharmoniseerde EU-normen zijn gepubliceerd, zich kunnen beroepen op praktijkcodes om aan de regelgeving te voldoen.

Maatregelen ter ondersteuning van innovatie en het MKB

De leden van het Europees Parlement wilden ervoor zorgen dat bedrijven, vooral het MKB, AI-oplossingen kunnen ontwikkelen zonder onnodige druk van industriële reuzen die de waardeketen controleren. Daartoe bevordert de overeenkomst zogenaamde ‘regulatory sandboxes’ en ‘real-world-tests’, opgezet door nationale autoriteiten om innovatieve AI te ontwikkelen en op te leiden voordat deze op de markt wordt gebracht.

Het niet naleven van de regels kan leiden tot boetes variërend van 35 miljoen euro of 7% van de mondiale omzet tot 7,5 miljoen of 1,5% van de omzet, afhankelijk van de overtreding en de omvang van het bedrijf.

Volgende stappen

De overeengekomen tekst zal nu formeel moeten worden aangenomen door zowel het Parlement als de Raad om EU-wetgeving te worden. De commissies Interne Markt en Burgerlijke Vrijheden van het Parlement zullen tijdens een komende bijeenkomst over de overeenkomst stemmen.

Misschien vind je deze berichten ook interessant