Vanaf januari 2025 coördineert de politie van Antwerpen een Europees project dat de Joodse gemeenschappen beter moet beveiligen. Daarvoor worden slimme camera’s met artificiële intelligentie getest die automatisch gewelddadig gedrag herkennen. Experts zijn echter kritisch en wijzen op de problematische kanten van dit soort technologieën.
Het project werd door de Europese Unie in het leven geroepen om de Joodse gemeenschappen beter te beschermen tegen antisemitisch geweld. In dat AEGIS-project (voluit ‘Advanced thrEat identification and Response in Guarding JewIsh communitieS’) zal politiezone Antwerpen samenwerken met buitenlandse partners zoals Spanje en Roemenië. Het volledige project is geraamd op 2,5 miljoen euro. Voor Politiezone Antwerpen is een budget van 1,4 miljoen euro voorzien, waarvan 90 procent gesubsidieerd wordt door de Europese Unie. Dat betekent dat de politiezone zelf 146.000 euro inbrengt.
Welke technologie daarvoor precies gebruikt zal worden en hoe de algoritmes getraind zullen worden, is nog niet bekend. “Pas in januari beginnen we te onderzoeken hoe slimme camera’s verdacht gedrag zouden kunnen detecteren”, zegt politiewoordvoerder Wouter Bruyns. “De technologie die daarvoor nodig is, zal speciaal voor dit project ontwikkeld worden. We hopen alles over twee jaar te kunnen uitrollen.”
Experts zijn echter op hun hoede voor wat de technologie precies zal inhouden. Dat blijkt alvast uit de reacties in Knack van privacyjurist Matthias Dobbelaere-Welvaert en criminologe Rosamunde Van Brakel en in Gazet van Antwerpen van defensiespecialist Roger Housen.
De gevaren van function creep
Matthias Dobbelaere-Welvaert, ook directeur van het Ministry of Privacy, ziet de software voor gedragsherkenning als een potentieel opstapje voor gezichtsherkenning. Voor hem is het in elk geval duidelijk dat de algoritmes die gebruikt zullen worden nauw verwant zullen zijn met de gezichtsherkenningstechnologie. “De meeste software die gebruikmaakt van algoritmes die in staat zijn om gedrag te detecteren, hebben ook een functie om aan gezichtsherkenning te doen, en daar is geen wettelijke basis voor. In de praktijk valt het echter moeilijk te achterhalen of die functie door de politiediensten gebruikt wordt of niet. De gezichtsherkenningssoftware van Clearview AI mocht bijvoorbeeld niet gebruikt worden, en toch gebeurde dat, herhaaldelijk zelfs, en wellicht vandaag nog steeds.”
Dobbelaere-Welvaert wijst ook op het gevaar van function creep en verwijst daarvoor naar de ANPR-camera’s. De eerste ANPR-camera’s in België werden gebruikt om terroristen op te sporen, vandaag lezen ze nummerplaten om verkeersovertreders te kunnen beboeten. Aangezien technologie steeds goedkoper wordt, is het voor politici verleidelijk om ze in te zetten voor god weet wat. Hij vreest dat ook hier het proefproject een opstap kan zijn om de technologie later op een andere manier te gaan gebruiken.
Bovendien kost zo’n systeem niet alleen veel geld om te ontwikkelen, de privacy en de mensenrechten van de bevolking komen er ook door in het gedrang. De vraag is of dat opweegt tegen wat men eruit haalt. Nogmaals Dobbelaere-Welvaert: “Vinden we het oké dat een hele wijk onder de loep gehouden wordt als er één gewelddadige activist uit de wijk geplukt wordt? Het moet gerechtvaardigd blijven en proportioneel zijn.”
Impact op de manier waarop mensen zich op straat gedragen
Ook criminologe Rosamunde Van Brakel (VUB), gespecialiseerd in surveillance en AI, is terughoudend. Ze wijst er op dat op verschillende Europese luchthavens al met dergelijke technologie geëxperimenteerd werd. “Daaruit bleek dat die technologie redelijk onbetrouwbaar is. Ook mensen met psychiatrische aandoeningen, mensen met een handicap en mensen die lang op de wc zitten, werden als verdacht gemarkeerd, met vals positieven als resultaat. Ik heb nooit wetenschappelijk bewijs gezien of onafhankelijke evaluaties die aantonen dat die technologie waarmaakt wat ze belooft.”
Nog een mogelijke consequentie kan zijn dat als deze technologie meer uitgebreid wordt uitgerold in de samenleving het een impact kan hebben op de manier waarop mensen zich op straat gedragen. “Als er veel vals positieven zijn bij mensen die sowieso al kwetsbaar zijn omdat ze bijvoorbeeld een handicap hebben, kan dat verregaande gevolgen hebben”, zegt Van Brakel. “Technologie mag mensen niet bang maken om zich in de publieke ruimte te begeven. Die sociale impact mag niet uit het oog verloren worden.”
Van Brakel kadert het project ook binnen de ‘AI regulatory sandboxes’. Een sandbox is een gecontroleerde omgeving die het ontwikkelen, testen en valideren van innovatieve AI-systemen voor een beperkte tijd mogelijk maakt. “De valkuil is dat zulke technologieën uiteindelijk vaak toch geïmplementeerd worden, zelfs als ze amper resultaten opleveren. Als er bijvoorbeeld een terroristische dreiging is en er ingegrepen moet worden, zal men daarnaar grijpen, om te laten zien aan de bevolking dat de dreiging serieus genomen wordt.”
Willen we dit soort samenleving?
In Gazet van Antwerpen laat ook defensiespecialist Roger Housen zich kritisch uit over het project. Hij waarschuwt in eerste instantie voor het gevaar van function creep. “Na de aanslagen van 2016 in Brussel werden ANPR-camera’s opgehangen voor de strijd tegen terrorisme. Nadien werden ze gebruikt om verkeersovertredingen vast te stellen. Inmiddels dienen ze ook om gsm’en achter het stuur te detecteren. De grenzen schuiven steeds verder op zonder dat daar ooit een politiek of maatschappelijk debat over gevoerd is. Terwijl je nog altijd raakt aan de privacy van mensen, een grondrecht.”
De oud-kolonel verwijst daarbij naar China en het systeem van sociale kredietscores. Maar hij ziet ook dichterbij de grenzen van de slimme camera verschuiven. “In twee democratische landen die lid zijn van de NAVO gebruiken ze camera’s om tatoeages op het lichaam te identificeren en te kijken of die tekening een link heeft met extreemrechts. Je zult als 16-jarige maar een tatoeage hebben laten plaatsen waarvan je de betekenis niet goed begrepen hebt. Dat kan op een later moment gevolgen hebben.” Een ander voorbeeld zijn de camera’s met geluidssensoren die in de Verenigde Staten gebruikt worden en die elk gesprek uit het achtergrondlawaai kunnen filteren. “Dat systeem werd ingevoerd na de aanslagen van 11 september om terrorisme te voorkomen. Een goeie zaak, vond iedereen. Zo’n terreuraanslag mocht nooit meer plaatsvinden. Intussen wordt iedereen die iets zegt wat een beetje verdacht klinkt wel gevolgd. Soms worden ook de berichten op de sociale media van die persoon bekeken.”
Housen vraagt daarom waakzaamheid, nu hij ziet dat de limieten onder het mom van terrorismebestrijding steeds verder opgeschoven worden. “Je zult als jongere maar een hoodie dragen en tijdens het uitgaan kattenkwaad uithalen. Staat daar plots een politiecombi naast je. Willen we die soort samenleving?”
Preventief profileren
Gemeenteraadslid Niel Staes (Groen) stelde de afgelopen jaren voor de partij Groen regelmatig vragen over AI in de Antwerpse gemeenteraad. Hij wil het concrete project afwachten, maar is kritisch. Staes: “In plaats van het vaststellen van een overtreding, lijkt het hier te gaan om het preventief profileren van mensen, groepen of gedrag via artificiële intelligentie. Dat is een stap verder, waar je je toch vragen bij kan stellen.”
Frank Schuermans, voorzitter van het Controleorgaan op de Politionele Informatie (COC), vat het tenslotte nog eens bondig samen. “Er zal nog veel water naar de zee vloeien voor de camera’s geïnstalleerd zijn.” Vanaf februari treedt immers ook de nieuwe Europese AI-verordening in werking. Het ‘predictive policing’ waar Niels Staes naar verwijst wordt door de nieuwe AI-verordening sowieso aan banden gelegd. Ook zal de politiezone een inschatting van de impact op fundamentele rechten moeten voorleggen. “Ze moeten dan beoordelen wat de effecten zijn van die slimme camera’s op fundamentele rechten zoals het recht op privacy, samenscholing en protesteren.” Ons lijkt het in ieder geval weinig waarschijnlijk dat die effecten positief zullen zijn.