Home Bots in Society Onderzoek: Uitlegbaarheid is belangrijk fundament voor verantwoorde inzet van AI

Onderzoek: Uitlegbaarheid is belangrijk fundament voor verantwoorde inzet van AI

door Marco van der Hoeven

Er is veel te doen over het verantwoord inzetten van AI en algoritmes. Uitlegbaarheid van AI-systemen helpt hierbij, omdat dit AI-systemen transparant maakt, laat zien hoe ze te werk gaan en uitkomsten beter kunnen worden verklaard en uitgelegd. Om AI-systemen uitlegbaar te maken is het nodig daar vanaf de start van de realisatie van deze systemen rekening mee te houden. Dit heet “Explainable AI by Design”. Hogeschool Utrecht ontwikkelde samen met Floryn, Researchable en de Volksbank een checklist die hier een praktisch handvat voor biedt.

Er zijn diverse voorbeelden waarbij AI niet verantwoord werd ingezet. Denk aan de toeslagenaffaire en het Systeem Risico Indicatie (SyRI). SyRI is een systeem waarmee de overheid persoonsgegevens kan koppelen en analyseren om fraude op te sporen. Dit systeem is niet transparant en inzichtelijk en kan leiden tot verkeerde conclusies. Mede door deze voorbeelden zijn we ons steeds meer bewust dat we AI verantwoord moeten inzetten. Ook de komende EU AI Verordening zorgt voor dat groeiende bewustzijn. Eén van de belangrijke pijlers van het verantwoord inzetten van AI is uitlegbaarheid van AI.

Uitlegbaarheid van AI

Uitlegbaarheid wil zeggen dat de werking en uitkomsten van een AI-systeem kunnen worden verklaard en uitgelegd aan belanghebbenden zoals burgers, consumenten, toezichthouders en professionals in organisaties. Daarnaast is uitlegbaarheid een belangrijk hulpmiddel om te achterhalen of het AI-systeem wel fair is, niet discrimineert en niet vooringenomen is.

Implementatie van uitlegbare AI

Maar hoe implementeer je uitlegbare AI? Neem bijvoorbeeld de toeslagenaffaire waarbij het per gedupeerde 400 uren kostte om een passende uitleg te geven. Dat impliceert dat er vooraf niet nagedacht is over de uitlegbaarheid van de toeslagensystemen. Het uitlegbaar maken van AI-systemen vereist dat die systemen daarop ingericht worden. Dat betekent dat in alle fasen van de realisatie van zo’n systeem maatregelen genomen worden om een passende uitleg te kunnen geven. We noemen dit “Explainable AI by Design”.

Checklist voor Explainable AI by Design

Hogeschool Utrecht heeft samen met Floryn, Researchable en de Volksbank een checklist gemaakt die een praktisch handvat biedt voor het realiseren van uitlegbare AI. Het zorgt ervoor dat in alle fasen van de realisatie van een AI-systeem de juiste maatregelen kunnen worden genomen, om uiteindelijk belanghebbenden een passende uitleg te kunnen geven van dat systeem.

De checklist is bestemd voor iedereen die een rol heeft in het realiseren van AI-systemen. De checklist is in de eerste plaats ontwikkeld voor de financiële sector maar is ook bruikbaar in andere sectoren waar de impact van AI substantieel is en vertrouwen een belangrijke rol speelt, zoals de publieke sector en de gezondheidszorg. De opgestelde checklist is beschreven in een whitepaper die hier te vinden is.

Misschien vind je deze berichten ook interessant