Home Bots & Brains Nieuwe algoritmen helpen robots te lopen op lastig terrein

Nieuwe algoritmen helpen robots te lopen op lastig terrein

door Pieter Werner

Een team van de Universiteit van Californië in San Diego heeft een nieuwe reeks algoritmen ontwikkeld waarmee vierbenige robots kunnen lopen en rennen op moeilijk terrein, terwijl ze zowel statische als bewegende obstakels vermijden.

Tijdens tests leerde het systeem een ​​robot om autonoom en snel te manoeuvreren over zanderige oppervlakken, grind, gras en hobbelige zandheuvels bedekt met takken en gevallen bladeren zonder tegen palen, bomen, struiken, keien, banken of mensen te botsen. De robot navigeerde ook door een drukke kantoorruimte zonder tegen dozen, bureaus of stoelen te botsen.

Het werk brengt onderzoekers een stap dichter bij het bouwen van robots die zoek- en reddingsmissies kunnen uitvoeren of informatie kunnen verzamelen op plaatsen die te gevaarlijk of moeilijk zijn voor mensen.

Het team zal zijn werk presenteren op de 2022 International Conference on Intelligent Robots and Systems (IROS), die zal plaatsvinden van 23 tot 27 oktober in Kyoto, Japan.

Momenteel zijn de meeste benaderingen om potente robots te trainen om te lopen en te navigeren afhankelijk van proprioceptie of visie, maar niet beide tegelijkertijd, zei senior auteur Xiaolong Wang, een professor in elektrische en computertechniek aan de UC San Diego Jacobs School of Engineering .

“In één geval is het alsof je een blinde robot traint om te lopen door gewoon de grond aan te raken en te voelen. En in de andere plant de robot zijn beenbewegingen alleen op basis van zicht. Het is niet twee dingen tegelijk leren”, zegt Wang. “In ons werk combineren we proprioceptie met computervisie om een ​​robot met poten efficiënt en soepel te laten bewegen – en obstakels te vermijden – in een verscheidenheid aan uitdagende omgevingen, niet alleen in goed gedefinieerde omgevingen.”

Het systeem dat Wang en zijn team hebben ontwikkeld, maakt gebruik van een speciale set algoritmen om gegevens van realtime beelden die zijn gemaakt door een dieptecamera op het hoofd van de robot, te combineren met gegevens van sensoren op de benen van de robot. Dit was geen eenvoudige taak. “Het probleem is dat er tijdens gebruik in de echte wereld soms een kleine vertraging is bij het ontvangen van beelden van de camera”, legt Wang uit, “dus de gegevens van de twee verschillende detectiemodaliteiten komen niet altijd op hetzelfde moment aan.”

De oplossing van het team was om deze mismatch te simuleren door de twee sets invoer willekeurig te verdelen – een techniek die de onderzoekers multimodale vertragingsrandomisatie noemen. De gefuseerde en gerandomiseerde inputs werden vervolgens gebruikt om op een end-to-end manier een versterkend leerbeleid te trainen. Deze aanpak hielp de robot om snel beslissingen te nemen tijdens het navigeren en van tevoren te anticiperen op veranderingen in zijn omgeving, zodat hij sneller obstakels kon verplaatsen en ontwijken op verschillende soorten terreinen zonder de hulp van een menselijke operator.

Foto: credit UC San Diego Jacobs School of Engineering

Misschien vind je deze berichten ook interessant