Home Bots & Brains Radboudumc: ‘luie’ artificiële intelligentie transparanter en relevanter maken voor de kliniek’

Radboudumc: ‘luie’ artificiële intelligentie transparanter en relevanter maken voor de kliniek’

door Pieter Werner

AI is een belangrijke innovatie in de diagnostiek, omdat het snel afwijkingen kan leren herkennen die een arts ook als ziekte zou bestempelen. Maar de manier waarop deze systemen werken is vaak ondoorzichtig en artsen hebben een beter “totaalbeeld” wanneer ze de diagnose stellen. In een nieuwe publicatie in IEEE Transactions on Medical Imaging laten onderzoekers van het Radboudumc zien hoe ze de AI kunnen laten tonen hoe het werkt, en het ook meer als arts kunnen laten diagnosticeren, waardoor AI-systemen relevanter worden voor de klinische praktijk.

Dokter versus AI

De afgelopen jaren is artificiële intelligentie in opkomst bij de diagnose van medische beelden. Een arts kan een Röntgenfoto of biopsie bekijken om afwijkingen te identificeren, maar dit kan in toenemende mate ook door een AI-systeem worden gedaan dat ‘deep learning’ toepast (zie ‘Achtergrond: wat is deep learning’ hieronder). Zo’n systeem leert zelfstandig tot een diagnose te komen en doet dat in sommige gevallen net zo goed of beter dan ervaren artsen.

Transparant

Twee belangrijke verschillen met een menselijke arts zijn dat AI vaak niet transparant is over de manier waarop het de beelden analyseert, maar ook dat deze systemen nogal ‘lui’ zijn. AI kijkt naar wat er nodig is voor een bepaalde diagnose en stopt dan. Dit betekent dat een scan niet altijd álle afwijkingen identificeert, ook niet als de diagnose correct is. Een arts kijkt, vooral bij het overwegen van het behandelplan, naar het grote geheel: wat zie ik? Welke afwijkingen moeten tijdens de operatie worden verwijderd of behandeld?

Een AI zoals de dokter

Om AI-systemen aantrekkelijker te maken voor de klinische praktijk, ontwikkelde Cristina González-Gonzalo, PhD-kandidaat bij A-eye Research en de Diagnostic Image Analysis Group van Radboudumc, een tweeledige verbetering van diagnostische AI. Ze deed dit op basis van oogscans waarop afwijkingen van het netvlies te zien waren – met name diabetische retinopathie en leeftijdsgebonden maculaire degeneratie. Deze afwijkingen zijn gemakkelijk te herkennen door zowel een arts als AI. Maar het zijn ook afwijkingen die vaak in groepen voorkomen. Een klassieke AI zou één of enkele plekken diagnosticeren en de analyse stoppen. In het proces dat González-Gonzalo heeft ontwikkeld, gaat de AI echter keer op keer door het beeld en leert de plaatsen die ze al is gepasseerd te negeren en ontdekt zo nieuwe. Bovendien laat de AI ook zien welke delen van de oogscan verdacht worden geacht, waardoor het diagnostisch proces transparant wordt (zie foto onder).

Een iteratief proces

Een normale AI zou een diagnose kunnen stellen op basis van één beoordeling van de oogscan, en dankzij de eerste bijdrage van González-Gonzalo kan het laten zien hoe het tot die diagnose is gekomen (het derde plaatje van links op de foto). Deze visuele uitleg laat zien dat het systeem inderdaad lui is – het systeem stopt de analyse omdat het net genoeg informatie heeft verkregen om een diagnose te stellen. Dat is de reden waarom González-Gonzalo het proces ook op een innovatieve manier herhalend of iteratief maakte. Dit forceert de AI om beter te kijken en meer het ‘totaalplaatje’ te creëren dat radiologen voor zichzelf maken.

Leren

Hoe heeft het systeem geleerd om met ‘frisse ogen’ naar dezelfde oogscan te kijken? Het systeem leerde de al gevonden afwijkingen digitaal te bedekken met gezond weefsel van rondom de afwijking, waardoor het in de volgende ronde alleen nog nieuwe afwijkingen zou kunnen vinden. Vervolgens werden de resultaten van alle beoordelingsrondes bij elkaar opgeteld en dat levert de uiteindelijke diagnose op (het meest rechtse plaatje). In de studie verbeterde deze aanpak de gevoeligheid van de detectie van diabetische retinopathie en leeftijdsgebonden maculaire degeneratie met 11,2 +/- 2,0% per afbeelding. Wat dit onderzoek bewijst, is dat het mogelijk is om een AI-systeem beelden meer als een arts te laten beoordelen én transparant te maken hoe het werkt. Dit kan ertoe bijdragen dat deze systemen gemakkelijker te vertrouwen zijn en dus door radiologen kunnen worden gebruikt.

Achtergrond: wat is ‘deep learning’?

Deep learning is een term die wordt gebruikt voor systemen die leren op een manier die vergelijkbaar is met hoe onze hersenen werken. Het bestaat uit netwerken van elektronische ‘neuronen’, die elk één aspect van het gewenste beeld leren herkennen. Vervolgens volgt het de principes van ‘al doende leert men’ en ‘oefening baart kunst’. Het systeem krijgt steeds meer beelden met relevante informatie die, in dit geval, zegt of er een afwijking in het netvlies is, en zo ja, welke ziekte het is. Het systeem leert vervolgens te herkennen welke kenmerken bij die ziekten horen, en hoe meer afbeeldingen het ziet, hoe beter het die kenmerken kan herkennen in niet-gediagnosticeerde afbeeldingen. We doen iets soortgelijks met kleine kinderen: we houden herhaaldelijk een voorwerp, bijvoorbeeld een appel, voor hun neus en zeggen dat het een appel is. Na een tijdje hoef je het niet meer te zeggen – ook al is elke appel net iets anders. Een ander groot voordeel van deze systemen is dat ze hun training veel sneller afronden dan mensen en 24 uur per dag kunnen werken.

Foto: Deze serie toont de vier verschillende stadia van dezelfde oogscan die in dit artikel worden beschreven. Van links naar rechts: de originele afbeelding; met markering van de afwijkingen door menselijke experts; met markering van afwijkingen door één scan van een AI-systeem; en met markering van anomalieën gemaakt na een iteratieve reeks scans van een AI-systeem. Het valt op dat het iteratieve proces een vollediger overzicht geeft van de aanwezige afwijkingen dan de enkele beoordeling. 

 

Misschien vind je deze berichten ook interessant