Home Geen categorie‘AI op eigen voorwaarden’: van experiment naar bedrijfsrelevantie

‘AI op eigen voorwaarden’: van experiment naar bedrijfsrelevantie

door Marco van der Hoeven

“Bijna iedereen experimenteert inmiddels met AI, maar meer dan negentig procent geeft eerlijk aan dat er nog geen bewezen klant- of bedrijfswaarde uitkomt,” zegt Marcel Timmer, Country Managing Director Nederland bij Red Hat. “De fase van vrijblijvend uitproberen loopt af. De vraag is nu: hoe gaan we het veilig, gecontroleerd én meetbaar inzetten, op onze eigen voorwaarden?”

Die formulering, AI op eigen voorwaarden, was de rode draad tijdens Red Hat Summit: Connect in Nieuwegein. Red Hat presenteert zich als partij die garandeert dat organisaties AI kunnen draaien binnen hun eigen infrastructuur, met volledige controle over data, policies en lifecycle. “Wij bouwen niet de meest spectaculaire AI-modellen,” zegt Timmer, “wij zorgen ervoor dat je zelf veilig, herhaalbaar en volledig onder controle met AI aan de slag kunt op je eigen data, via je eigen platform.”

Digitale soevereiniteit

Red Hat pleit er al langer voor dat workloads vrij verplaatsbaar moeten blijven tussen clouds en on-prem. Deze visie is nu mainstream. “We zeiden dit acht jaar geleden al, maar toen werd het nog gezien als technisch detail. Nu zie je dat soevereiniteit in elke sector urgent is geworden.” Tegelijk waarschuwt hij voor oppervlakkigheid: “Iedereen roept ineens ‘soeverein’, maar het gaat niet om een sticker. De vraag is: kun je morgen van cloud A naar B zonder je hele architectuur te slopen? Heb je daadwerkelijk inzicht en zeggenschap over je data?”

Eigen AI-onderzoek door Red Hat laat zien dat organisaties wel willen investeren, maar worstelen met return-on-investment en risico’s. “Het is nu te vaak experiment zonder vooraf bepaalde KPI’s. Men hoopt op waarde, maar weet niet hoe die straks bewezen gaat worden,” aldus Timmer. Daarbij zien organisaties shadow AI al ontstaan, waarbij medewerkers zelfstandig AI-tools gebruiken buiten de regie van IT. “Mensen doen het toch gewoon. Dat is niet per se slecht, maar het moet regulier gefaciliteerd worden. Anders krijg je risico zonder strategie.”

AI-washing

Volgens Timmer is de fase van AI-washing voorbij. “AI hoort niet als gimmick toegevoegd te worden, maar moet op enterprise-niveau automatisch beheerd kunnen worden. Versiebeheer, governance, security, terugrolbaarheid moeten allemaal ingebouwd zijn.” Hij noemt dit ‘het automatiseren van het automatiseren’: AI moet onderdeel worden van DevOps-denken, niet ervan losstaan.

Opvallend is dat de discussie over AI samenvalt met herbezinning op virtualisatie. “Organisaties heroverwegen hun platformkeuzes omdat licentie- en lock-in-risico’s hen beperken in hun AI-strategie.” De infrastructuurlaag bepaalt nu wie wendbaar is en wie vast komt te zitten.

Een duidelijke trend die Timmer ziet, is de verschuiving naar domeinspecifieke AI-modellen die kleiner zijn, dichter op de data draaien en direct meetbare waarde leveren. “Je hebt niet altijd een model nodig van tien miljard parameters. Een kleiner model binnen je eigen omgeving kan vaak veel sneller waarde leveren, en je weet precies wat het gebruikt en wie het aanstuurt.”

Skills-kloof

Volgens Timmer zit de echte rem op dit moment niet in tooling, maar in mensen. “We hebben geen gebrek aan ideeën, maar aan mensen die AI op een verantwoorde manier in productie kunnen brengen. Dat is geen prompt engineering, dat is MLOps, data governance, security en infrastructuurdenken in één. Hier moet Nederland structureel in investeren.”

Die volwassen benadering is volgens Timmer precies wat nu het verschil gaat maken tussen organisaties die AI incidenteel inzetten, en organisaties die er structureel voordeel uit halen. “We hebben de experimenteerfase nodig gehad om bekend te raken met AI, maar nu komt het punt waarop het bedrijfskritisch wordt. Dan moet je dus al vooraf weten: wie beheert het model? Hoe wordt het geüpdatet? Hoe garandeer ik dat het niet met verkeerde data traint? En wat gebeurt er als er iets misgaat?”

Hij ziet dat dit voor veel organisaties nieuw terrein is. “Er wordt nog te vaak gedacht dat AI een tool is die je erbij koopt. Terwijl het in werkelijkheid een levend systeem is dat constant moet worden onderhouden, bewaakt én gecontroleerd.”

Opschalen

Dat is volgens hem ook precies waarom generieke AI-diensten uit de cloud voor veel organisaties op de lange termijn niet houdbaar zijn. “Je kunt niet eindeloos afhankelijk blijven van black box-diensten waarvan je niet weet op welke data ze zijn getraind, welke beslissingen ze nemen en op basis waarvan. Zeker niet als het gaat om publieke sector, gezondheidszorg of financiële processen. Transparantie en controle zijn geen nice-to-haves, maar randvoorwaarden.  Open source is in dit opzicht een belangrijke factor”

Red Hat gebruikt AI intern en in producten, maar altijd gericht en geïntegreerd. “In Red Hat Enterprise Linux helpen we systeembeheerders realtime met AI-functionaliteit. In Ansible Lightspeed gebruiken we AI om automatisering sneller op te bouwen. Red Hat AI is ontworpen om te werken met elk AI-model, elke hardware en elke cloud naar keuze. Wij doen nooit AI als gimmick. Alleen waar het direct waarde toevoegt. AI mag niet buiten je infrastructuur zweven. Het moet er onderdeel van zijn. Alleen dan kun je er verantwoordelijk mee opschalen.”

 

Misschien vind je deze berichten ook interessant