Inleiding en context

Dinsdagochtend 4 augustus 2020, na de regenachtige dag van gisteren hopelijk vandaag weer een zonnige dag. Zeker voor alle collega´s die genieten van een fijne vakantiedag. Vandaag een ´kennisparel´ over ´Artificial Intelligence and Law Enforcement: Impact on Fundamental Rights´. Kunstmatige intelligentie of artificial intelligence (AI) binnen de rechtshandhaving en criminaliteitsbestrijding zal de komende jaren een groeimarkt bij uitstek blijken te zijn. Bijgesloten studie, in opdracht van de beleidsafdeling van het Europees Parlement voor de rechten van de burger en constitutionele zaken op verzoek van de LIBE-commissie, beschrijft de impact op de grondrechten van kunstmatige intelligentie op het gebied van rechtshandhaving en strafrecht, vanuit het perspectief van de Europese Unie. Het gaat in op het toepasselijke juridische kader (met name met betrekking tot gegevensbescherming) en analyseert belangrijke maatschappelijke en technologische trends en de belangrijke beleidsdiscussies daarover. De studie beschrijft ook de ontwikkelingen na de Covid-19-uitbraak. Het stelt dat de ontwikkelingen en de omvang daarvan een beleidsinterventie op EU-niveau vereist. Leesvoer voor iedereen die direct of indirect met deze ontwikkelingen worden geconfronteerd. 

Bron

Gonzalez Fuster, Gloria (July 2020). Artificial Intelligence and Law Enforcement: Impact on Fundamental Rights. Brussels: European Parliament.

https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf

Samenvatting                       

This study, commissioned by the European Parliament’s Policy Department for Citizens’ Rights and Constitutional Affairs at the request of the LIBE Committee, examines the impact on fundamental rights of Artificial Intelligence in the field of law enforcement and criminal justice, from a European Union perspective. It presents the applicable legal framework (notably in relation to data protection), and analyses major trends and key policy discussions. The study also considers developments following the Covid-19 outbreak. It argues that the seriousness and scale of challenges may require intervention at EU level, based on the acknowledgement of the area’s specificities.

This study aims at analysing the impact on EU fundamental rights of AI in the field of law enforcement and criminal justice. It approaches the subject from an EU law and policy perspective. It first succinctly presents the main features of the applicable legal framework. Second, it introduces recent and ongoing developments in the field, focussing on predictive policing, facial recognition, the use of AI in criminal justice, and AI and borders. It discusses the impact on fundamental rights of these trends, and reviews relevant policy discussions around AI regulation. After such exploration, the study puts forward some concrete recommendations.

Law enforcement and criminal justice can benefit from AI developments, and there are many AI related systems and technologies being adopted and developed for law enforcement and criminal justice purposes in the European Union (EU). Some of these solutions, however, raise important questions in terms of their compatibility with EU fundamental rights.

EU-level policy discussions around the regulation of AI have been marked until recently by their strong embedding in the development of the Digital Single Market. In this policy context, the European Commission (EC) is notably advocating embracing the advent of AI while at the same trust in AI – as a policy objective in itself. Ethical considerations have been given much attention from this perspective.

The magnitude and seriousness of challenges triggered by AI in the field of law enforcement and criminal justice, however, do not appear to be conveniently addressed by ongoing reflections. In this sense, future steps should notably consider the legal specificities of the area, and most notably the complexities and limitations of the EU data protection legal framework, especially insofar as personal data processing for law enforcement and criminal justice purposes is concerned, and more generally in relation to data processing in the Area of Freedom, Security and Justice (AFSJ).

EU-funded AI research related to law enforcement and criminal justice also deserves further attention. Important investments have already taken place, and more substantial funding is planned, but the framework accompanying the selection of projects and their implementation presents problematic transparency gaps.

The Covid-19 outbreak has led to data-driven and AI solutions being more present than ever, potentially exponentially multiplying the personal data to be eventually available for law enforcement purposes. Whereas fundamental rights safeguards, including data protection safeguards, appear more important now than ever, there have also been cases in which these safeguards appear to be threatened by exceptional measures taken invoking needs related to the crisis. This generates a particularly delicate situation for EU fundamental rights, calling for great vigilance.

Afsluitend

AI heeft talloze toepassingen die al in de samenleving zijn geïntroduceerd: biometrische (inclusief gezichts-) herkenning, objectherkenning, risico- en succesvoorspelling, algoritmisch besluitvorming of ondersteuning, automatische vertaling, aanbevelingssystemen, enzovoort. Deze AI-toepassingen hebben hun weg gevonden naar vele sectoren in de maatschappij zoals rechtshandhaving, justitie, mens en middelenbeheer, financiële diensten, transport, gezondheidszorg, en openbare diensten. Deze toepassingen hebben bijzondere impact op mensenrechten, de democratie en de rechtsstaat in het algemeen.

Het feit dat AI bestaande vooroordelen kan bevestigen of versterken, is vooral relevant bij gebruik binnen de rechtshandhaving en criminaliteitsbestrijding. In situaties waar fysieke vrijheid of persoonlijke veiligheid op het spel staan, zoals bij predictive policing, en recidive risico bepaling en veroordeling is het zaak om hier zeer kritisch op te zijn. Wanneer een AI-systeem bijvoorbeeld wordt gebruikt voor recidivevoorspelling of veroordeling kan dat vertrekkende gevolgen hebben voor de betrokken mensen. Het kan fungeren als een black box waardoor het onmogelijk is voor juridische professionals, zoals rechters, advocaten en officieren van justitie om de redenering achter de uitkomsten van het systeem te begrijpen.

Beslissingen worden meer en meer gebaseerd op algoritmes die met kunstmatige intelligentie zijn gemaakt. Dat brengt grote risico’s met zich mee, als burgers geconfronteerd worden met beslissingen waar men zich niet tegen kan verweren mede omdat niet helder is hoe die tot stand komen. Tegelijk weten we dat statistische gegevens vaak beter in staat zijn risico’s te beoordelen dan op ervaring gegronde oordelen. Er zal nadere regulering moeten komen voor de toepassing van algoritmes, waarvan belangrijke elementen zijn transparantie over hun werking, toetsing op discriminerende vertekening, en finale menselijk betrokkenheid bij de toepassing van de uitkomsten. Bijgesloten ´kennisparel´ geeft een mooi systematisch overzicht hoe hier mee om te gaan.