De Morgen sprak met de Welshe onderzoeker en surveillance-expert Peter Fussey over de redenen waarom hij zo’n zwaar voorbehoud heeft bij het gebruik van camera’s met gezichtsherkenning door politiediensten. Hij heeft het onder meer over de mens als zwakke schakel, over de vele fouten die de technologie maakt, over de vooroordelen die in de technologie verweven zitten en de vooroordelen binnen de politiekorpsen zelf én over hoezeer gezichtsherkenning de Universele Verklaring voor de Rechten van de Mens onder druk zet. Hij eindigt met de vrees dat zo’n technologie zal leiden tot een chilling effect. “In hoeverre zorgt de aanwezigheid van zulke technologie dat we bepaalde plekken mijden of dat we niet meer durven opkomen voor onze rechten op straat?”
De belofte van camera’s die gezichten kunnen herkennen, klinkt fantastisch. Met behulp van zulke camera’s is het veel gemakkelijker om zware criminelen of terroristen op te sporen. In plaats van een mens scant een computer alle gezichten op drukke plaatsen zoals treinstations, winkelcentra of luchthavens. De software gaat op zoek naar gezichten van mensen die geseind staan. Zodra een camera hen spot, krijgt de politie een melding en kan ze tot actie overgaan. Het probleem: in de realiteit veroorzaken zulke camera’s heel wat collateral damage.
Ten eerste is er de zwakke schakel nummer één: de mens. Fussey kreeg de kans om de politiediensten van Wales en Londen te volgen tijdens hun experimenten met ‘facial recognition’-technologie. De Londense politie gebruikte de technologie om gezochte personen op te sporen op publieke plaatsen. “Ik zat in het politiebusje waar een agent af en toe twee foto’s te zien kreeg. Eén van een persoon waar de politie naar op zoek was, en een beeld uit de massa”, vertelt Fussy. “Het was aan de agent in het busje om in te schatten of de match die de software had gemaakt, klopte.” Zij waren niet de enigen die de melding kregen. Ook de agenten ter plaatse kregen via hun smartphone de twee foto’s te zien. “Daar ontstaan situaties waarin de persoon in het busje de inschatting maakt dat het niet om dezelfde persoon gaat. Maar de agent op straat, die al uren in de vrieskou staat en zich verveelt, denkt: ‘Oh, een match, laten we die persoon tegenhouden.’” Beslissingen uit het busje om iemand te arresteren werden haast nooit in vraag gesteld. Beslissingen om niet over te gaan tot actie werden bijna altijd genegeerd. “De agenten op straat voelden een bepaalde druk om de technologie te vertrouwen.” En dat leidt tot verschrikkelijke situaties. Zo zag Fussey hoe een jonge zwarte man door vijf politieagenten hardhandig werd gearresteerd. “Hij wist niet wat hem overkwam, zijn hele lichaam trilde.” Nadien bleek dat de software een fout had gemaakt.
Zo komen we bij zwakke schakel nummer twee: de technologie zelf. Die is niet waterdicht. Volgens het Amerikaanse NIST (National Institute for Science and Technology), dat gezien wordt als een wereldleider in het testen van facial recognition-technologie, valt dat wel mee. “Als er 200.000 mensen voorbij een camera lopen, is er volgens NIST één identificatie die fout loopt.” Uit zijn ervaringen van op het veld weet Fussey dat die percentages veel hoger liggen. Tijdens Fusseys observatie bij de politie werden er 42 mensen door de gezichtsherkenningssoftware geïdentificeerd. De computer had het acht keer bij het rechte eind. “Die actie vond plaats op Leicester Square tijdens het weekend voor Kerstmis. Iedereen draagt dan een lange zwarte jas.” Fussy wil daarmee niet zeggen dat de technologie niet werkt, hij wil duidelijk maken dat ze fouten maakt. “Most of the time.”
En dan hebben we het nog niet gehad over de vooroordelen die in de technologie verweven zitten. En die zitten er op verschillende manieren in. Er is de bias in de technologie zelf. Fussey geeft het voorbeeld van baby- en kindergezichten. “Die lijken allemaal veel harder op elkaar dan bij volwassenen. Afhankelijk welke software je gebruikt, is die beter of minder goed in het herkennen van kinderen.”
Ook met etniciteit hebben algoritmes het moeilijk. “Een algoritme dat vooral geleerd heeft om gezichten te herkennen op basis van foto’s van witte mensen, zal veel moeilijker andere gezichten herkennen.” The Financial Times berichtte eerder dit jaar dat het Chinese bedrijf CloudWalk Technology samenwerkt met de regering van Zimbabwe. In ruil voor de allernieuwste technologie deelt Zimbabwe de gezichten van zijn inwoners om de Chinese algoritmes te leren om beter zwarte mensen te herkennen.
Los van die onbetrouwbaarheid mogen we ook de vooroordelen binnen politiekorpsen niet vergeten. “Als je een lijst hebt met 3.000 mensen die de politie zoekt, dan zijn dat niet enkel mensen die een misdrijf hebben gepleegd. Dat zijn ook mensen waar de politie aandacht voor gehad heeft”, zegt Fussey. “En het is in het Verenigd Koninkrijk al meermaals bewezen dat politiediensten meer gefocust zijn op minderheden.”
Tot slot benadrukt Fussey hoezeer gezichtsherkenning de Universele Verklaring voor de Rechten van de Mens onder druk zet, zelfs zonder rekening te houden met bovenstaande argumenten. “Als ik vroeger een rechercheur was en ik wilde je doen en laten weten omdat ik je ergens van verdenk, dan moest ik daar een autorisatie voor krijgen van een onderzoeksrechter”, zegt Fussey. ANPR-camera’s die nummerplaten van wagens kunnen lezen en bewakingscamera’s die gezichten kunnen herkennen, nemen die vorm van controle weg.
Iedereen die bij zo’n camera passeert, is verdacht volgens Fussey. Hij vreest dat zo’n technologie zal leiden tot een chilling effect. “In hoeverre zorgt de aanwezigheid van zulke technologie dat we bepaalde plekken mijden of dat we niet meer durven opkomen voor onze rechten op straat?”
‘Wie voorbij camera’s met gezichtsherkenning loopt, is een potentiële verdachte’