De nieuwste AI-modellen kunnen wiskundige vraagstukken oplossen, programmeren en bruikbare zakelijke adviezen geven. Maar hoe indrukwekkend deze technologie ook is, ze blijft fundamenteel onbetrouwbaar. Dat stelt lector Pascal Wiggers van de Hogeschool van Amsterdam in zijn lectorale rede van 30 oktober. “AI maakt fouten op onvoorspelbare momenten, kan waarheid niet van onwaarheid onderscheiden en heeft geen notie van betekenis. Deze tekortkomingen zullen nooit volledig verdwijnen.”
Wiggers gaat met zijn analyse in tegen het beeld dat grote techbedrijven schetsen. Zij gokken erop dat de biases en fouten in AI-modellen uiteindelijk zullen verdwijnen. De profeten van Silicon Valley voorspellen dat het een kwestie van tijd is voordat AI een breed scala aan taken kan begrijpen, leren en uitvoeren op menselijk- of zelfs bovenmenselijk niveau, zogenaamde superintelligentie.
AI-modellen worden beter door grotere rekenkracht
Wiggers beschrijft in zijn rede hoe de mogelijkheden van de meest geavanceerde AI-modellen nauwelijks te overschatten zijn. Deze modellen herkennen patronen die ons met het blote oog of met andere technologieën ontgaan – ze kunnen op röntgenfoto’s vroege aanwijzingen voor tumoren vinden, de 3D-structuur van proteïnes nauwkeurig voorspellen, en inmiddels zelf complexe wiskundige vraagstukken oplossen.
Opvallend is dat deze modellen tijdens hun training ook ‘metakennis’ lijken te ontwikkelen: abstracte kennis over taal en nieuwe strategieën om vragen op te lossen. Die metakennis is niet voorgeprogrammeerd.
Fouten en goede resultaten lopen door elkaar
Het is verleidelijk om hierin haast menselijke redeneervermogens in te zien, beschrijft Wiggers. Maar tegelijk gaan diezelfde geavanceerde modellen bij ogenschijnlijk triviale vragen nog steeds volledig onderuit. In zijn rede haalt Wiggers een voorbeeld aan van een variatie op een raadsel (hoe je met een wolf, geit en kool een rivier oversteekt) waarbij Chat-GPT telkens fout blijft antwoorden, in lijn met de bekendste oplossing.
Modellen slaan, met dezelfde zelfverzekerdheid waarmee ze een heldere analyse bieden, het volgende moment weer onzin uit. “En het lastige is: de keren dat het fantastisch goed of fout gaat, lopen door elkaar”, aldus Wiggers.
In zijn rede legt Wiggers uit dat de fouten inherent zijn aan de manier waarop AI (door middel van machine learning) leert en werkt. Statistische modellen neigen naar gemiddelden – hoe vaker een patroon voorkomt, hoe meer het ingesleten raakt. Ze zijn daardoor nooit 100 procent betrouwbaar, want ze kennen niet alle situaties die in de praktijk voorkomen.
Ook kunnen statistische AI-modellen niet goed overweg met uitzonderingen en bijzonderheden. Minderheden vallen daardoor vaker buiten de boot. En als je die ene sollicitant bent met een wat afwijkend, maar interessant cv, is de kans groot dat een AI-systeem je automatisch afwijst.
Daarnaast kan een AI-model verbanden leggen die in werkelijkheid niet bestaan, of die samenhangen met factoren buiten het model. Wordt een model (indirect) bijgestuurd op resultaten die het zelf heeft veroorzaakt, dan ontstaan feedbackloops. Het gevolg is een zichzelf versterkend, steeds smaller beoordelingskader.
Fouten zijn keerzijden van succes AI
De genoemde fouten en vooroordelen zijn geen kleine foutjes die simpel te repareren zijn. Integendeel; het zijn keerzijden van het succes van AI.
Want juist doordat AI werkt op basis van statistiek, kan het omgaan met onvolledige informatie, en taken uitvoeren zoals spraakherkenning en vertalen. Maar diezelfde statistische basis zorgt ook voor ongewenste patronen, en een blinde vlek voor uitzonderingen. “Deze effecten zijn deels te verminderen, en het is belangrijk dat te doen,” aldus Wiggers. “Maar de bottom line: het wordt beter, maar nooit helemaal goed. Nadenken is de enige remedie.”
Ook cruciaal: AI heeft geen notie van betekenis. Een taalmodel bootst taalgebruik na door verbanden te leggen tussen woorden en eventueel beelden. Maar het heeft geen besef van betekenis of waarheid. “Het heeft geen toegang tot die informatie, omdat die vaak fysiek en impliciet is, ingebed in onze omgang met elkaar en met de wereld.”
Kritisch vakmanschap
Volgens Wiggers krijgt AI pas echt betekenis in de praktijk, waar deze technologie ons handelen stuurt en beïnvloedt. Daarom is het cruciaal dat we AI juist in de maatschappelijke context onderzoeken. Verantwoord is een werkwoord, besluit Wiggers – we moeten continu wegen, bespreken en bijsturen.
Mensen die opgeleid zijn in ICT, technologie en media blijven dan ook hard nodig. Vakmanschap blijft, signaleert Wiggers. Om AI-uitkomsten goed te kunnen beoordelen op waarheid, volledigheid en toepasbaarheid – en om te weten wanneer AI níet moet worden ingezet. “Kritisch vakmanschap wordt nog belangrijker dan het was.”
