Een onderzoeksinitiatief aan de Universiteit van Klagenfurt onderzoekt het gebruik van autonome drones voor de inspectie van kritieke infrastructuur. Daarbij wordt gebruikgemaakt van industriële beeldvormingstechnologie van IDS Imaging Development Systems GmbH. Het project integreert AI-gebaseerde object-relatieve navigatie en een industriële USB3 Vision-camera uit de uEye LE-serie om realtime inspectietaken mogelijk te maken.
Het systeem wordt gefinancierd door het Oostenrijkse Federale Ministerie voor Klimaatactie, Milieu, Energie, Mobiliteit, Innovatie en Technologie (BMK). De drone is ontworpen om infrastructuurelementen zoals elektriciteitspalen en isolatoren te herkennen en te omzeilen. Hij legt beeldgegevens vast vanaf specifieke afstanden, zodat herhaalbare en nauwkeurige vergelijkingen tussen meerdere inspectievluchten mogelijk zijn.
De drone maakt gebruik van een TWINs Science Copter-platform met een Pixhawk PX4-autopiloot en een NVIDIA Jetson Orin AGX 64GB DevKit als boordcomputer. De IDS U3-3276LE C-HQ-camera, uitgerust met een Sony Pregius IMX265 global shutter-sensor, levert haarscherpe beelden tot 58 frames per seconde. Deze beelden ondersteunen het AI-navigatiesysteem van de drone, dat semantische informatie gebruikt om inspectiedoelen in realtime te identificeren en te lokaliseren.
In tegenstelling tot GNSS-gebaseerde systemen, die kunnen falen bij fysieke obstakels, gebruikt het AI-systeem semantische gegevens om de relatieve positie en oriëntatie tussen de drone en inspectiedoelen te bepalen. Dit maakt consistente en veilige navigatie mogelijk, vooral in moeilijk bereikbare of GPS-verstoorde omgevingen.
Het project maakt gebruik van ROS (Robot Operating System) in combinatie met de IDS peak SDK voor cameraintegratie en -besturing. Hiermee kunnen belichting, witbalans, versterking en downsampling automatisch worden ingesteld. Navigatie, missiebesturing en databeheer worden verzorgd via de CNS Flight Stack, een open-source softwareplatform voor UAV-operaties.
Realtime navigatie wordt gerealiseerd door sensorfusie met gegevens van de camera, IMU, LIDAR en GNSS. Een Extended Kalman Filter (EKF) verwerkt deze inputs om de stabiliteit en positionele nauwkeurigheid van de drone te behouden. Beeldgegevens worden vastgelegd met 50 frames per seconde en een resolutie van 1280 x 960 pixels, afgestemd op de verwerkingscapaciteit van de AI aan boord.
Testvluchten vinden plaats in de dronehal van de universiteit, waar een model van een elektriciteitspaal met isolatoren als voornaamste inspectiedoel dient. Het systeem moet bredere toepassingen in mobiele robotica ondersteunen, en toont de rol aan van compacte, krachtige industriële camera’s in autonome infrastructuurmonitoring.
Volgens het onderzoeksteam ligt de focus momenteel op het optimaliseren van het AI-model voor gebruik aan boord en het verder ontwikkelen van het inspectiesysteem om de betrouwbaarheid en efficiëntie in praktijksituaties te vergroten.
Beeld: Alpen-Adria-Universität (aau) Klagenfurt