Inleiding en context
Goede morgen allemaal, het is vandaag woensdag 18 augustus 2021. Uit de afwezigheidsmeldingen blijkt dat er nog veel collega´s vrij zijn, geniet ervan. Vandaag een ´kennisparel´ die opnieuw het onderwerp artificial intelligence onder de loep neemt. Kunstmatige intelligentie of artificial intelligence (AI) binnen de rechtshandhaving en criminaliteitsbestrijding zal de komende jaren een groeimarkt bij uitstek blijken te zijn. Eerder verstuurde ik al een ´kennisparel´ over de impact op de grondrechten van kunstmatige intelligentie op het gebied van rechtshandhaving en strafrecht, vanuit het perspectief van de Europese Unie: https://prohic.nl/2020/08/04/4-augustus-2020-artificial-intelligence-and-law-enforcement-impact-on-fundamental-rights/ en nog een ´kennisparel´ die de meest recente inzichten biedt rond dat onderwerp betreffende de mogelijkheden van artificiële intelligentie en risicobeoordeling door de politie: https://prohic.nl/2021/01/15/151-15-januari-2021-artificial-intelligence-predictive-policing-and-risk-assessment-for-law-enforcement/ Vandaag gaat bijgesloten document of de rol van AI in relatie tot grensbewaking binnen de Europese Unie, een ´hot topic´.
De EU en haar lidstaten wenden zich in toenemende mate tot technologieën voor kunstmatige intelligentie (AI) in hun inspanningen om de grenscontrole te versterken in het kader van de veiligheidsrisico’s in verband met grensoverschrijdend terrorisme en zware georganiseerde misdaad. Dit is een recente manifestatie van een bredere trend naar een ‘smartening van EU-grenzen´. Het is een trend die de ontwikkeling en koppeling van grootschalige gecentraliseerde informatiesystemen en de inzet van een gedecentraliseerd mechanisme voor informatie-uitwisseling voor het beschermen van grenzen en veiligheid laat zien. Deze systemen zijn geleidelijk uitgebreid en geüpgraded om steeds meer categorieën van personen, d.w.z. om ‘informatielacunes’ te dichten. Ook worden er steeds meer gegevens verwerkt, waaronder een verhoogde verwerking van biometrische gegevens. In de afgelopen jaren zijn EU-landen er snel bij geweest om ‘nieuwe’ technologieën te adopteren om de problemen op te lossen van het nauwkeurig identificeren van individuen met het oog op controle, mobiliteit en misdaadbestrijding. Ongeacht de verfijning en effectiviteit van verschillende identificatietechnologieën en -hulpmiddelen (paspoorten, lichaamsafmetingen, vingerafdrukken, fotografie, leugendetectors of gezichtsherkenningssystemen) is de toepassing gedomineerd door veelal de wetenschappelijke, sociale en politieke opvattingen. De fundamentele rechten van de mens komen hierbij wat minder aan de orde. Op naar de ´kennisparel´ van vandaag.
Bron
Dumbrava, Costica (July 2021). Artificial intelligence at EU borders: Overview of applications and key issues. Brussels: European Parliamentary Research Service, 41 pp. https://www.europarl.europa.eu/RegData/etudes/IDAN/2021/690706/EPRS_IDA(2021)690706_EN.pdf
Samenvatting
This paper provides an overview of EU initiatives on developing and deploying artificial intelligence (AI) technologies to improve border control and border security. First, it outlines the historical development of identification technologies (passport, fingerprints, photography, polygraphy, face recognition) in the social and political context. Second, it outlines the EU policy on smart borders, examining the EU’s centralised information systems and major information exchange mechanisms for borders and security. Third, it surveys major EU initiatives on AI for borders by looking into four categories of AI applications: 1) biometric identification (automated fingerprint and face recognition); 2) emotion detection; 3) algorithmic risk assessment; and 4) AI tools for migration monitoring, analysis and forecasting. Fourth, it discusses key issues raised by the development and use of such AI applications, namely reliability issues (accuracy of technologies and data quality), and fundamental rights issues (bias and discrimination, data protection and security, unlawful profiling, and transparency in EU funding on AI research). The paper concludes with reflections on the broader understanding of technologies, cautioning against the pitfalls of technological determinism and the myth of technological neutrality.
Afsluitend
Ondanks de vooruitgang op het gebied van biometrische identificatietechnologieën, varieert de nauwkeurigheid van de resultaten nog steeds tussen technologieën en is deze afhankelijk van contextuele factoren. Zelfs de relatief gevestigde toepassingen voor het identificeren van vingerafdrukken worden geconfronteerd met uitdagingen, met name in het stadium van het verzamelen van biometrische gegevens (gerelateerd aan bijvoorbeeld de leeftijd van de proefpersonen en de omgevingsomstandigheden). De betrouwbaarheid van gezichtsherkenningstechnologieën in ‘echte’ omgevingen is sterk afhankelijk van de kwaliteit van de vastgelegde beelden en van de kwaliteit van de algoritmen die worden gebruikt voor biometrische matching.
De kwaliteit van de algoritmen hangt weer af van de kwaliteit van de datasets (inclusief de kwaliteit, volledigheid en relevantie van beelden) en de verschillende optimalisatietechnieken. Er bestaan grote twijfels over de wetenschappelijke basis en betrouwbaarheid van emotiedetectie-algoritmen. Er is bezorgdheid geuit over de nauwkeurigheid van gegevens met betrekking tot veel EU-informatiesystemen en kaders voor informatie-uitwisseling voor het beschermen van grenzen en veiligheid. Gezichtsherkenningstechnologieën worden steeds kritischer benaderd vanwege de zorgen over grondrechten, met name risico’s in verband met vooringenomenheid en discriminatie, gegevensbescherming en massasurveillance.
Hoewel veel aandacht is besteed aan de kwestie van vooringenomenheid en discriminatie wordt geconcludeerd dat zelfs nauwkeurige en onpartijdige AI-systemen aanzienlijke risico’s kunnen inhouden, waaronder gegevensbescherming en privacy. Het toegenomen gebruik van biometrische gegevens in EU-informatiesystemen vergroot het risico van onrechtmatige profilering (gezichtsfoto’s kunnen bijvoorbeeld etnische afkomst onthullen). Zelfs wanneer profilering niet is gebaseerd op biometrische of persoonlijke gegevens kunnen andere soorten gegevens of combinaties daarvan die worden gebruikt voor algoritmische profilering leiden tot discriminatie op grond van oneigenlijke toepassingen. Het toepassen van technologieën zonder het hoofd te bieden aan valkuilen zoals technologisch determinisme en de mythe van technologische neutraliteit zou de grondrechten, transparantie en aansprakelijkheid verder kunnen verzwakken. Genoeg redenen voor een grondige discussie, ook in Nederland.