Uav's (unmanned aerial vehicle's) of drones navigeren over het algemeen met behulp van gps, een prima systeem voor buiten en liefst in een dunbevolkte omgeving. In een enkel geval hebben drones een stereocamera en verschillende sensoren, zoals proximity sensors, waardoor het apparaat obstakels kan vermijden. Maar ook dat zorgt er niet voor dat deze vliegende apparaten stand kunnen houden in druk bevolkte, stedelijke omgevingen.
Het Chinese technologiebedrijf DJI propte al in 2016 een systeem met twee naar beneden ‘kijkende’ camera’s en ultrasone sensoren in zijn duurdere consumenten-quadcopter Phantom 4. Samen met de sensoren die vooruitkijken, kan de drone dan zelf besluiten een object te ontwijken of niet meer te bewegen totdat de eindgebruiker een besluit neemt. De sensoren geven ook de mogelijkheid om de gebruiker te volgen waarbij computer vision wordt gebruikt.
Maar alleen objecten ontwijken, dat functioneert niet midden in de stad. Je kunt niet aangeven op een kaart dat je een drone van de Kerkweg naar de Kanaalstraat in Utrecht wil sturen bijvoorbeeld. Wat je daarvoor nodig hebt, is een drone die kan navigeren door een stad en daarbij ook verkeerstekens begrijpt.
Algoritme
Om te zorgen dat drones wel zelf kunnen navigeren, heeft de universiteit van Zurich in Zwitserland een algoritme ontwikkeld om zowel door stadsstraten als binnenshuis te navigeren. Het algoritme moest daartoe verkeersregels leren begrijpen. Een van de manieren om dat onder de knie te krijgen, was door het algoritme fietsers en auto’s te laten imiteren.
Het door de onderzoekers ontwikkelde algoritme heet DroNet en kan een quadcopter veilig door een stad loodsen. Om ervoor te zorgen dat het systeem het ingevoerde beeld begrijpt, maakt het gebruik van een zogenaamd residual network in acht lagen. Het netwerk levert twee outputs voor elk beeld dat het binnen krijgt, namelijk een beeld dat de stuurhoek aangeeft zodat de drone blijft navigeren tijdens het ontwijken van obstakels en een botsings-waarschijnlijkheidsberekening om de drone gevaarlijke situaties te laten herkennen en er snel op te reageren. Daarbij maakt het systeem ook onderscheid tussen bewegende en stilstaande obstakels.
Alleen een drone trainen met zo’n residual network, wat valt onder de deep learning networks, staat of valt met voldoende trainingsdata en dat is lastig: je kunt zo’n apparaat geen weken achtereen door de straten van Zurich jagen. De onderzoekers bedachten daar een list op: ze gebruikten data van auto’s en fietsers.
Ondanks dat de drone in kwestie geen prijzige sensoren of camera’s aan boord had, waarschuwen de onderzoekers wel voor een te rooskleurig beeld van de toekomst. Iets dat we ook zeker bij autonome auto’s zien: het blijft lastig.