‘We fungeren slecht als back-upsysteem’

KIJK-redactie

14 juli 2016 17:00

david abbink

David Abbink heeft stevige kritiek op de zelfrijdende auto’s van Google en Tesla. Als Nederlandse topwetenschapper is hij bezig zijn eigen variant te ontwerpen, waarbij mens en slimme auto samenwerken. Abbink noemt dit ook wel ‘symbiotisch rijden’. In zijn werkkamer aan de TU Delft voelde KIJK hem aan de tand.

KIJK: Symbiotisch rijden? Wat is er mis met volledig automatisch rijden? 

“De zelfrijdende auto’s van Google en Tesla richten zich op zogenoemde traded control, waarbij de mens in de gaten moet houden of het systeem wel goed functioneert. De mens fungeert daarbij als back-upsysteem; een taak waar we erg slecht in zijn. Dat idee is in de jaren zestig ontwikkeld voor de luchtvaart. We betalen piloten veel geld om die saaie traded-control-situatie te managen. We trainen ze om te gaan met een complex vliegtuig dat het meestal goed doet, maar waar heel soms moet worden ingegrepen. En precies daar gaat het weleens mis; wanneer de piloot niet goed snapt wat het vliegtuig doet en vice versa. Dat veroorzaakt 90 procent van alle vliegongelukken. En dan zegt men: het is een menselijke fout! Nee, het is een fout in de interactie. Waar ik naartoe wil, is shared control. Ik kijk naar hoe je zo’n intelligent maar feilbaar apparaat het beste kan laten samenwerken met een bestuurder. Die moet er nog wel zijn, omdat we dat apparaat nog niet helemaal kunnen vertrouwen.”

Nee? Maar de voortschrijdende techniek dan?

“Honderd procent feilloos is onmogelijk. Dat is haast een filosofisch standpunt, maar wat mij betreft is de wereld intrinsiek onvoorspelbaar. En dat machines falen is an sich niet erg. Ook in de luchtvaart hebben we geaccepteerd dat we die paar ongelukken niet kunnen voorkomen. Maar het kan niet zo zijn dat het altijd de fout van de piloot is. En als de gebrekkige interactie tussen piloot en vliegtuig, of tussen mens en robot, in de luchtvaart al een probleem is, dan denk ik dat die op de weg een nóg groter probleem gaat worden. Want daar is de situatie vaak vele malen onvoorspelbaarder. Computer vision en zelflerende algoritmes kunnen eindeloos worden verbeterd, maar dat lost niet het probleem op van hoe je om moet gaan met een wereld die je niet kunt voorspellen.”

Toch heeft Googles zelfrijdende auto in die zeven jaar maar ongeveer een dozijn ongelukken gehad, die op een na allemaal door andere auto’s werden veroorzaakt.

“Dat geloof ik best, maar ze vertellen er niet bij hoe vaak de bestuurder heeft ingegrepen. We willen zó graag die toekomst waarin je niets hoeft te doen en helemaal veilig achterover kunt leunen, maar dat is een utopie. Nu er onlangs iemand is verongelukt die reed in een Tesla met autopilot, is de faalbaarheid van de techniek weer pijnlijk duidelijk. Toegegeven, er vinden natuurlijk ook veel ongelukken tijdens gewoon rijden plaats. Toch komt de oude vraag weer naar voren of iemand wel goed in staat is om in te grijpen als hij zolang niets hoeft te doen. Mensen gaan er te veel op vertrouwen. Sommigen gaan zelfs op de achterbank zitten.”

Dit is het begin van een interview te vinden in KIJK 8/2016. Dit nummer ligt in de winkel vanaf 21 juli tot en met 24 augustus.  

Meer informatie:

Tekst: Hidde Tangerman

Beeld (header): iStock/Getty Images, beeld (portret Abbink): TU Delft

Meest gelezen


De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."