Home Bots & Brains Kennis menselijke verwerking van licht kan helpen bij ruimtelijke bewustwording robots

Kennis menselijke verwerking van licht kan helpen bij ruimtelijke bewustwording robots

door Marco van der Hoeven

Een team onderzoekers van het Amerikaanse leger ontdekte hoe het menselijk brein helder en contrasterend licht verwerkt, wat volgens hen een sleutel is tot het verbeteren van robotdetectie en het mogelijk maken dat autonome agenten samenwerken met mensen.

Om ontwikkelingen op het gebied van autonomie mogelijk te maken, een topprioriteit van het leger, moet machinedetectie flexibel zijn in veranderende omgevingen, aldus onderzoekers. “Wanneer we algoritmen voor machinevisie ontwikkelen, worden real-world beelden meestal gecomprimeerd tot een kleiner bereik, zoals een camera van een mobiele telefoon doet, in een proces dat tonemapping wordt genoemd”, zegt Andre Harrison, een onderzoeker bij Army Research van het US Army Combat Capabilities Development Command. Laboratorium. “Dit kan bijdragen aan de broosheid van machine vision-algoritmen omdat ze gebaseerd zijn op kunstmatige beelden die niet helemaal overeenkomen met de patronen die we in de echte wereld zien.”

Sensoren

Door een nieuw systeem te ontwikkelen met een weergavecapaciteit van 100.000 op 1, ontdekte het team de berekeningen van de hersenen, onder realistischere omstandigheden, zodat ze biologische veerkracht in sensoren konden inbouwen, zei Harrison.

De huidige visie-algoritmen zijn gebaseerd op studies bij mensen en dieren met computermonitors, die een beperkt luminantiebereik hebben van ongeveer 100-op-1, de verhouding tussen de helderste en donkerste pixels. In de echte wereld kan die variatie een verhouding zijn van 100.000 op 1, een toestand die hoog dynamisch bereik of HDR wordt genoemd.

Variaties

“Veranderingen en aanzienlijke variaties in licht kunnen een uitdaging zijn voor legersystemen – drones die onder een bladerdak vliegen, kunnen in de war raken door veranderingen in de reflectie wanneer de wind door de bladeren waait, of autonome voertuigen die op ruw terrein rijden, herkennen kuilen of andere obstakels mogelijk niet vanwege de lichtomstandigheden. zijn iets anders dan die waarop hun vision-algoritmen zijn getraind, ”zei legeronderzoeker Dr. Chou Po Hung.

Het onderzoeksteam probeerde te begrijpen hoe de hersenen automatisch de 100.000-op-1 input van de echte wereld opnemen en comprimeren tot een kleiner bereik, waardoor mensen de vorm kunnen interpreteren. Het team bestudeerde vroege visuele verwerking onder HDR en onderzocht hoe eenvoudige functies zoals HDR-luminantie en randen op elkaar inwerken, als een manier om de onderliggende hersenmechanismen bloot te leggen.

Hersenen

“De hersenen hebben meer dan 30 visuele gebieden, en we hebben nog maar een rudimentair begrip van hoe deze gebieden het oogbeeld verwerken tot een begrip van de 3D-vorm”, zei Hung. “Onze resultaten met HDR-luminantiestudies, gebaseerd op menselijk gedrag en opnamen van de hoofdhuid, laten zien hoe weinig we echt weten over hoe we de kloof tussen laboratorium en echte omgevingen kunnen overbruggen. Maar deze bevindingen breken ons uit die doos en laten zien dat onze eerdere aannames van standaard computermonitors hebben een beperkt vermogen om te generaliseren naar de echte wereld, en ze onthullen principes die onze modellering naar de juiste mechanismen kunnen leiden. ”

Resultaten

The Journal of Vision publiceerde de onderzoeksresultaten van het team: Abrupt donker worden onder HDR-luminantie (High Dynamic Range) roept facilitering op voor doelen met hoog contrast en groepering op luminantie-overeenkomst. Onderzoekers zeiden dat de ontdekking van de interactie tussen licht en contrastranden in de visuele weergave van de hersenen de effectiviteit van algoritmen voor het reconstrueren van de echte 3D-wereld onder reële luminantie zal helpen verbeteren, door te corrigeren voor ambiguïteiten die onvermijdelijk zijn bij het schatten van 3D-vorm op basis van 2D-informatie.

“Door miljoenen jaren van evolutie hebben onze hersenen effectieve snelkoppelingen ontwikkeld voor het reconstrueren van 3D op basis van 2D-informatie”, zei Hung. “Het is een decennia oud probleem dat wetenschappers op het gebied van machinevisie blijft uitdagen, zelfs met de recente vooruitgang in AI.”

Spraak

Naast visie voor autonomie, zal deze ontdekking ook nuttig zijn om andere AI-compatibele apparaten te ontwikkelen, zoals radar en spraak verstaan ​​op afstand, die afhankelijk zijn van detectie over brede dynamische bereiken.

Met hun resultaten werken de onderzoekers samen met partners in de academische wereld om computationele modellen te ontwikkelen, met name met prikkelende neuronen die voordelen kunnen hebben voor zowel HDR-berekening als voor meer energie-efficiënte beeldverwerking – beide belangrijke overwegingen voor drones met een laag vermogen.

AI

“De kwestie van dynamisch bereik is niet alleen een waarnemingsprobleem”, zei Hung. “Het kan ook een algemener probleem zijn bij hersenberekeningen, omdat individuele neuronen tienduizenden inputs hebben. Hoe bouw je algoritmen en architecturen die naar de juiste inputs in verschillende contexten kunnen luisteren? We hopen dat, door aan dit probleem te werken op zintuiglijk niveau kunnen we bevestigen dat we op de goede weg zijn, zodat we over de juiste tools beschikken wanneer we complexere AI bouwen. ”

Beeld: Bryan-college station eagle photo/Laura Mckenzie

Misschien vind je deze berichten ook interessant