Vrouwen zijn al decennialang benadeeld in de gezondheidszorg – en dat werkt inmiddels ook door in technologieën die ons zorgsysteem moeten verbeteren. Kunstmatige intelligentie (AI), die steeds vaker wordt ingezet voor diagnose en behandeling, wordt getraind op data waarin vrouwen ondervertegenwoordigd zijn. Daardoor dreigt bestaande ongelijkheid verder te worden verankerd, zegt onderzoeksbureau Pegasus in een recent rapport.
In de Amerikaanse zorg is het mannelijk lichaam nog steeds de norm. Tot ver in de jaren ’90 werden vrouwen nauwelijks betrokken bij medisch onderzoek, ondanks hun demografische meerderheid. Die historische achterstand vertaalt zich vandaag de dag in meer misdiagnoses, zwaardere bijwerkingen van medicatie en een groeiend wantrouwen in het zorgsysteem – met AI als nieuwste risicofactor.
Geneeskunde voor mannen
De medische wetenschap is grotendeels gebaseerd op mannelijke data. Dat zorgt ervoor dat diagnostiek en behandeling vaak niet goed aansluiten op het vrouwenlichaam. AI-modellen die getraind worden op deze eenzijdige gegevens nemen die blinde vlek mee: ze herkennen symptomen bij vrouwen minder goed, voorspellen minder accuraat en kunnen verkeerde prioriteiten stellen bij triage of behandeladvies.
Vrouwen lopen zo dubbel risico: zowel door menselijke vooroordelen als door geautomatiseerde besluitvorming gebaseerd op scheve data. En dat terwijl vrouwen juist vaker zorg nodig hebben, bijvoorbeeld rondom zwangerschap, chronische pijn of auto-immuunziekten.
Ondervertegenwoordiging
In klinische studies zijn vrouwen nog altijd ondervertegenwoordigd – slechts 40% van de deelnemers is vrouw. Ook vrouwelijke proefdieren worden vaak uitgesloten. AI-systemen die medische patronen analyseren op basis van deze data zijn dus minder betrouwbaar voor vrouwen. En hoe meer zorgprocessen geautomatiseerd worden, hoe groter het gevaar dat deze ongelijkheid structureel wordt.
De opkomst van sociale media als gezondheidsbron – bijvoorbeeld TikTok – laat zien dat veel vrouwen het vertrouwen in reguliere zorg al aan het verliezen zijn. Maar ook daar loert gevaar: desinformatie is moeilijk te filteren, en AI-algoritmes versterken populaire maar soms onjuiste gezondheidsclaims.
Van hartaanvallen tot beroertes en diabetes – veel aandoeningen uiten zich bij vrouwen anders dan bij mannen. Toch zijn medische richtlijnen en AI-algoritmes vaak afgestemd op mannelijke symptomen, waardoor vrouwen vaker verkeerd of te laat worden geholpen. Bij hartaanvallen is de kans op een verkeerde diagnose bij vrouwen bijvoorbeeld 50% hoger.
Medicatierisico’s en AI-vooroordelen
Medicatie wordt vaak ontwikkeld en getest zonder voldoende vrouwelijke inbreng. Dat leidt tot meer bijwerkingen bij vrouwen. AI kan helpen om patronen in bijwerkingen sneller te herkennen, maar alleen als de data representatief is – wat nu vaak niet het geval is.
De wereldwijde genderkloof in de zorg kost jaarlijks miljoenen gezonde levensjaren. AI biedt kansen om die kloof te verkleinen, maar alleen als er actief gestuurd wordt op gelijke representatie in data en besluitvorming. Blijft die stap uit, dan wordt digitale innovatie een nieuwe bron van ongelijkheid in plaats van een oplossing.
Gelijke vertegenwoordiging in onderzoek, betere herkenning van sekseverschillen en controle op bias in AI-systemen zijn essentieel voor toekomstbestendige zorg. Zonder bewust beleid dreigen bestaande ongelijkheden niet alleen te blijven bestaan, maar digitaal ingebakken te worden.
