Organisaties zijn onvoldoende voorbereid op fr cyberrisico’s die samenhangen met de snelle integratie van kunstmatige intelligentie in bedrijfsprocessen. Op basis van een onderzoek door Zscaler van bijna een biljoen AI- en machine-learningtransacties op het Zero Trust Exchange-platform van het bedrijf over 2025 concludeert het onderzoek dat AI zich ontwikkelt van een hulpmiddel voor productiviteit tot een belangrijke aanvalsvector binnen digitale omgevingen.
Volgens het rapport loopt de adoptie van AI aanzienlijk vooruit op het vermogen van organisaties om effectief toezicht te houden. Het gebruik van AI nam met circa 200 procent toe, terwijl veel organisaties nog altijd geen volledig overzicht hebben van de gebruikte AI-modellen en ingebouwde AI-functionaliteiten. Daardoor ontbreekt inzicht in waar gevoelige bedrijfsgegevens zich bevinden en hoe deze worden verwerkt. De financiële en verzekeringssector vertegenwoordigt het grootste aandeel in AI-verkeer, terwijl technologie- en onderwijsinstellingen de sterkste relatieve groei laten zien.
Het rapport beschrijft ook resultaten van zogeheten red-teamtests, waarbij AI-systemen onder realistische aanvalsomstandigheden zijn onderzocht. In alle geanalyseerde systemen werden kwetsbaarheden vastgesteld. De mediane tijd tot het identificeren van een kritieke kwetsbaarheid bedroeg zestien minuten, terwijl het merendeel van de systemen binnen anderhalf uur werd gecompromitteerd. In enkele gevallen werd de beveiliging vrijwel direct doorbroken. Volgens Zscaler onderstreept dit dat bestaande beveiligingsmechanismen moeite hebben om het tempo van geautomatiseerde aanvallen bij te houden.
De toename van AI-gebruik heeft daarnaast geleid tot een sterke groei van het aantal applicaties dat wordt ingezet voor AI- en ML-transacties. Het ecosysteem omvat inmiddels meer dan 3.400 applicaties, wat de complexiteit van digitale omgevingen vergroot en het centrale overzicht verder vermindert. Daarbij waarschuwt het rapport voor risico’s in de AI-supplychain, waarbij kwetsbaarheden in veelgebruikte modellen of componenten kunnen worden misbruikt om toegang te krijgen tot kernsystemen.
Een ander aandachtspunt is het groeiende gebruik van ingebedde AI-functionaliteiten binnen gangbare softwareplatforms. Deze functies zijn vaak standaard actief en blijven buiten het zicht van traditionele beveiligingscontroles, waardoor gevoelige gegevens ongemerkt kunnen worden verwerkt door AI-modellen. Het onderzoek signaleert dat onder meer platforms van Atlassian een grote rol spelen in deze vorm van ingebedde AI-activiteit.
Verder blijkt dat de hoeveelheid bedrijfsdata die naar AI-toepassingen wordt verzonden sterk is toegenomen. In 2025 ging het om ruim 18.000 terabyte aan gegevens, een stijging van 93 procent op jaarbasis. Applicaties zoals ChatGPT en diensten van Grammarly behoren daarmee tot grote verzamelpunten van bedrijfsinformatie. Dit ging gepaard met honderden miljoenen overtredingen van beleid voor gegevensbescherming, waaronder pogingen om vertrouwelijke persoonsgegevens, broncode en medische informatie te verwerken.
