Home Bots in Society CBS stelt AI-beleidskader op

CBS stelt AI-beleidskader op

door Marco van der Hoeven

Nu de inzet van Artificial Intelligence voor steeds meer mensen zichtbaar wordt -van zoekmachines en programma’s die teksten genereren tot algoritmes die een kandidaat selecteren voor een functie of de kans op schooluitval bepalen- kringt het CBS steeds meer vragen hierover. Het CBS wil zorgvuldig met die vragen van externe partners omgaan, en heeft daarom de afwegingen die daarbij gemaakt worden vastgelegd in een AI-beleidskader.

Het CBS maakt statistieken over AI, bijvoorbeeld over de inzet van AI bij bedrijven en over welke soorten AI-technologie het gaat. Het CBS onderzoekt momenteel of het mogelijk is om meer statistische informatie rond AI te verzamelen. Maar het CBS zet AI ook zelf in bij het maken van statistieken.

Daarnaast krijgt het CBS vragen van andere overheidsorganisaties over de inzet van AI, inclusief de daarbij gebruikte databronnen. Wat betreft het maken van CBS-statistieken over AI geven de bestaande kaders voldoende duidelijkheid.

Voor de vragen van externe partners over hoe zij AI het beste kunnen inzetten, is er nu door de CBS-directie een AI-beleidskader vastgesteld. Kim van Ruler, beleidsadviseur bij het CBS: ‘Het AI-beleid maakt duidelijk welke AI-vragen het CBS wel en niet kan beantwoorden, zowel voor onszelf als voor de externe partijen met wie we samenwerken. We willen transparant zijn over de mogelijkheden én risico’s.’

Zelflerend algoritme

Het CBS werkt nooit mee aan verzoeken die leiden tot de opsporing van personen of tot informatie over individuen of bedrijven. Van Ruler: ‘Dat valt onder administratief gebruik van data en dat doen we nooit. Maar er is ook een groot grijs gebied als organisaties hulp willen bij de inzet van AI-algoritmes en de daarvoor gebruikte data.’ AI is een containerbegrip, zegt Joost Huurman, directeur Research en Development bij het CBS.

‘Het AI-beleid gaat vooral om AI waarbij zelflerende algoritmes een rol spelen.’ Zo’n algoritme maakt zelf nieuwe regels op basis van de input, de data, die het krijgt. ‘Het gevaar daarvan is dat door bias in de data – bijvoorbeeld als een bepaalde doelgroep oververtegenwoordigd is – een negatieve spiraal kan ontstaan. Dat kan leiden tot onterechte conclusies over bepaalde groepen mensen. Daar moet je enorm mee oppassen en erg alert op zijn.’

Zorgvuldig en behulpzaam

‘Het CBS vindt het belangrijk om zeer zorgvuldig om te gaan met nieuwe ontwikkelingen op het gebied van AI’, zegt Van Ruler. ‘Maar we willen ook behulpzaam zijn als dat mogelijk is en ten goede komt aan de samenleving.’ Een voorbeeld van een vraag die in het grijze gebied viel, kwam van het Centraal orgaan Opvang Asielzoekers (COA). Dat wilde met behulp van een algoritme passende plekken in Nederland zoeken voor statushouders.

Huurman: ‘Dat neigt naar administratief gebruik, dus dat ging niet. Wat we wel voor het COA konden doen was advies geven over hun dataset. Een goede dataset is een voorwaarde voor een eerlijk algoritme. Het doel van de inzet van dit algoritme was positief, namelijk het zorgen voor goede huisvesting. Dat speelde mee in de afweging.’

Drie afwegingen

Het AI-beleid is gebaseerd op drie afwegingen. Als een organisatie een beroep doet op het CBS op het gebied van AI, dan wordt ten eerste gekeken naar de rol die gevraagd wordt: gaat het om adviseren of om beoordelen? Van Ruler: ‘Het beoordelen van data en algoritmen van externe partijen doen we niet. Dat is niet onze taak.’ De tweede afweging heeft te maken met de vraag of de hulpvraag over te gebruiken data gaat of over algoritmen. Adviesvragen over data kan het CBS meestal honoreren.

Adviesvragen over algoritmen zijn afhankelijk van de context. Tot slot wordt gekeken naar het type algoritme: is dit bedoeld om iets te voorspellen of om iets te verklaren? Het CBS doet geen voorspellingen (behalve over de bevolkingsgroei, redactie) en zal dus doorgaans ook niet meewerken aan algoritmes die hierover gaan. Een algoritme dat iets verklaart, kan wel.

Huurman: ‘Het ligt genuanceerd. Neem een algoritme dat risicofactoren destilleert uit een wijk waar veel armoede voorkomt. Dat is een verklarend algoritme. Het probleem is dat je zo’n onderzoek vaak kunt omdraaien: armoede voorspellen op basis van risicofactoren die in een wijk voorkomen. We blijven dus zeer zorgvuldig in onze afweging.’ In het AI-beleid van het CBS zijn veel voorbeelden opgenomen over wat wel en wat niet kan. Van Ruler: ‘En als het echt niet duidelijk is welke aanpak we moeten kiezen, dan is er bij het CBS een ethische commissie die zich over de hulpvraag buigt.’

Verantwoord en transparant

Het is belangrijk dat burgers en organisaties kunnen zien hoe overheidsinstellingen te werk gaan en op welke processen en methoden beslissingen gebaseerd worden. Het AI-beleid van het CBS past daar goed in. Daarnaast is een enorme technologische ontwikkeling op AI-gebied gaande. Het CBS denkt actief na over de kansen en risico’s die daarmee gepaard gaan. Beleidsmatig door uit te zoeken wat past bij de rol van het CBS en inhoudelijk door te kijken hoe AI verantwoord en transparant toegepast kan worden.

Van Ruler: ‘Dat willen we ook laten zien. Voorop staat dat wij onze beslissingen kunnen uitleggen. Als een vraagstuk of de oplossing daarvan zo complex is dat wij dat niet meer kunnen, dan doen we het niet.’ Voor de samenwerkingspartners van het CBS zijn de gevolgen van het nieuwe beleidskader niet groot.

Huurman: ‘We gingen altijd al heel zorgvuldig met aanvragen om. We kunnen nu wel duidelijker en explicieter zijn en dat is in een samenwerking alleen maar prettig. Dan weten onze partners waar ze aan toe zijn. Want we kunnen veel, maar we mogen en willen niet alles.’

Bron: CBS

Misschien vind je deze berichten ook interessant