De Wetenschappelijke Adviesraad Politie luidt de noodklok over het gebruik van kunstmatige intelligentie in het politiewerk. Zonder heldere wetgeving en toezicht dreigt de politie vast te lopen in een technologisch niemandsland. In een nieuw rapport identificeert de Wetenschappelijke Adviesraad Politie (WARP) zeven urgente uitdagingen rond het gebruik van data en AI in politietaken. De inzet van technologie biedt onmiskenbare voordelen – zoals efficiënter opsporingswerk en betere informatiepositie – maar legt ook druk op fundamentele rechten zoals privacy, transparantie en non-discriminatie.
Een van de belangrijkste constateringen van de Adviesraad is dat het huidige wettelijke kader tekortschiet. De regels voor het verzamelen en verwerken van gegevens zijn versnipperd en sluiten niet aan op het digitale tijdperk waarin de politie opereert. Er wordt gepleit voor een herziening van de Wet politiegegevens, met een duidelijke koppeling tussen dataverzameling en -verwerking, én onafhankelijk toezicht “van begin tot eind”.
Technologie zonder ethisch kompas
De Raad vindt dat de politie structureel werk moet maken van ethische toetsing bij de inzet van technologie. Het ontbreken van een overkoepelend ELSA-raamwerk – waarin ethische, juridische en maatschappelijke aspecten worden meegewogen – leidt tot risico’s bij bijvoorbeeld het gebruik van risicotaxatie-algoritmes. Transparantie moet het uitgangspunt zijn: informatie is openbaar, tenzij er zwaarwegende redenen zijn om daarvan af te wijken.
De politie is in toenemende mate afhankelijk van commerciële technologiebedrijven voor AI-tools en data-analyse. Dat leidt tot zorgen over kennisverlies, ‘vendor lock-in’ en geopolitieke kwetsbaarheid. De Adviesraad pleit voor een toetsingskader dat de politie in staat stelt om risico’s vooraf in kaart te brengen en verantwoorde keuzes te maken bij samenwerking met private partijen.
Gebrekkige datakwaliteit
Binnen de politie ontbreken overzicht en centrale regie als het gaat om datakwaliteit, algoritmes en het gebruik van AI-toepassingen. Er is een risico op ‘shadow AI’ – informele experimenten zonder toezicht – terwijl juist betrouwbaarheid en controleerbaarheid cruciaal zijn. De Raad adviseert de datagovernance stevig te verankeren in de organisatie.
Net zoals agenten getraind worden in het gebruik van geweldsmiddelen, moeten zij ook worden toegerust om kritisch en bewust met AI om te gaan. De Raad pleit voor structurele aandacht voor digitale vaardigheden én een ‘kritische digitale mindset’ in opleidingen en het dagelijkse werk.
Kijk breder dan opsporing
De meeste AI-initiatieven richten zich nu op criminaliteitsbestrijding. Maar AI kan ook helpen om het vertrouwen tussen burgers en politie te versterken. De Raad ziet kansen voor technologie die de burgerbetrokkenheid vergroot, bijvoorbeeld via datagedreven buurtanalyses of gespreksverslagen in meldkamers.
Tot slot spreekt de Raad zich scherp uit tegen algoritmes die crimineel gedrag op persoonsniveau proberen te voorspellen. Die toepassingen blijken onbetrouwbaar, moeilijk uitlegbaar en brengen grote risico’s met zich mee voor stigmatisering en ongelijke behandeling. De politie moet hier volgens de Raad mee stoppen en dat ook duidelijk communiceren naar het publiek.
De WARP stelt dat de tijd van vrijblijvende experimenten met AI voorbij is. Er is nu actie nodig van politie, wetgever en politiek om kaders te stellen en publieke waarden te beschermen. “Alleen dan kan de politie met vertrouwen opereren in een snel digitaliserende samenleving – en het vertrouwen van burgers behouden.”