Een onderzoeksteam van Texas A&M University College of Engineering en het Korea Advanced Institute of Science and Technology heeft een AI-model ontwikkeld dat het gedrag van voetgangers kan voorspellen. Het systeem, OmniPredict, past een multimodaal large-languagemodel toe om visuele signalen en contextuele informatie te combineren en daarmee in real time te bepalen welke actie een voetganger waarschijnlijk zal ondernemen. De onderzoekers presenteren het model als technologie die kan worden ingezet in autonome voertuigen.
Projectleider Srinkanth Saripalli, directeur van het Center for Autonomous Vehicles and Sensor Systems, stelt dat het model niet alleen waarneemt wat er op straat gebeurt, maar ook inschattingen maakt over mogelijke vervolgstappen van voetgangers. In toepassingen voor zelfrijdende voertuigen kan dit leiden tot systemen die niet uitsluitend reageren op verkeerssituaties, maar deze anticiperen, met als doel risico’s eerder te herkennen en aanrijdingen te voorkomen.
De onderzoekers beschrijven dat OmniPredict zonder specifieke training werd getest op twee veelgebruikte datasets voor voetgangersgedrag, JAAD en WiDEVIEW. In het vakblad Computers & Engineering wordt gerapporteerd dat het model een nauwkeurigheid van 67 procent behaalde, een resultaat dat volgens de publicatie boven dat van recente vergelijkingsmodellen ligt. Het systeem bleef functioneren wanneer in de testscenario’s context werd toegevoegd, zoals gedeeltelijk zichtbare voetgangers of personen die naar een voertuig kijken.
Volgens de onderzoekers kan de technologie worden ingezet in uiteenlopende omstandigheden waarin snelle interpretatie van menselijk gedrag nodig is, waaronder militaire en noodsituaties. In de context van autonome voertuigen zou het model kunnen bijdragen aan verbeterde verkeersveiligheid doordat voertuigen niet alleen bewegingen registreren maar ook gedragsintenties interpreteren.
Hoewel OmniPredict een onderzoeksmodel blijft en nog niet geschikt is voor commerciële toepassing, wijzen de auteurs op de mogelijkheid dat toekomstige autonome voertuigen in grotere mate gebruikmaken van gedragsredenering naast visuele waarneming.
Foto: Texas A&M University College of Engineering
