Tijdens de laatste bijeenkomst van de Leiden AI Community besprak Marco van der Hoeven, hoofdredacteur van Rocking Robots, de trends op het gebied van AI-vision die hij op diverse internationale robotica-beurzen heeft gezien. Van der Hoeven deed eerder dit jaar verslag van evenementen als het European Robotics Forum in Stuttgart, Automatica in München en Vision, Robotics & Motion in Den Bosch. Hij zag van dichtbij hoe AI-vision industriële robotica ingrijpend verandert en steeds vaker toepassingen vindt in de life sciences.
Industriële robots bestaan al sinds 1961 en waren destijds grote, hydraulisch aangedreven en potentieel gevaarlijke machines. Vandaag de dag is het landschap sterk veranderd met de opkomst van collaboratieve robots, ofwel cobots, die ontworpen zijn om veilig samen te werken met mensen. Van der Hoeven merkt echter op dat zelfs cobots zorgvuldig moeten worden ingezet; bij verkeerd gebruik of overschatting van hun mogelijkheden kunnen veiligheidsrisico’s ontstaan.
AI-vision speelt een sleutelrol in het vergroten van de functionaliteit van robots. Waar eerdere ontwikkelingen vooral incrementeel waren—zoals cobots die steeds zwaardere lasten konden dragen—betekent de integratie van AI een fundamentele stap voorwaarts. Robots kunnen hun omgeving nu autonoom analyseren en daarop reageren, met name dankzij AI-vision op basis van videocamera’s in plaats van traditionele sensoren zoals LIDAR.
Edge
Edge computing versnelt deze ontwikkeling verder. Door videodata lokaal te verwerken—direct op het apparaat—kunnen robots sneller reageren op veranderende omstandigheden, zonder vertraging door datatransmissie naar externe servers. Bedrijven als Tesla investeren hier fors in. Zo worden Tesla’s humanoïde robot Optimus en autonome voertuigen getraind met behulp van uitgebreide GPU-clusters die enorme hoeveelheden videodata verwerken, wat real-time reacties mogelijk maakt zonder vooraf ingestelde kaarten of code.
Een concreet voorbeeld dat Van der Hoeven gaf, is het Delftse bedrijf Fizyr. Hun software stelt robots in staat om zelfstandig objecten te herkennen en te hanteren. Dankzij AI en videocamera’s kunnen deze robots bijvoorbeeld borden of glazen identificeren en nauwkeurig in industriële vaatwassers plaatsen—zonder dat aanvullende programmering nodig is, zelfs in wisselende omgevingen zoals keukens of ziekenhuizen.
Volgens hem reiken de toepassingen verder dan de traditionele industrie. In laboratoria kunnen AI-gestuurde robots nauwkeuriger en flexibeler opereren. Ook mensgerichte toepassingen zoals gezichts- en emotieherkenning ontwikkelen zich snel. Hoewel nog niet volledig betrouwbaar, bieden deze technologieën op termijn veelbelovende mogelijkheden voor medische en farmaceutische processen. De integratie van AI-vision met fysieke robotica opent dan ook een breed scala aan nieuwe toepassingen, met name in sectoren waar precisie, flexibiliteit en autonomie cruciaal zijn. De snelle vooruitgang wijst erop dat grootschalige adoptie mogelijk eerder zal plaatsvinden dan velen nu verwachten.
Zie ook
Van gereedschap naar collega: slimme robots centraal op Automatica
