Inleiding en context
Goede middag allemaal op deze woensdagmiddag 13 maart 2024. Ik begin deze middag met een lekker liedje: https://www.youtube.com/watch?v=D_8Pma1vHmw Past wel aardig bij de ´kennisparel´ van vandaag. En dat is er één heet van de pers. Vandaag kopte de NOS: ´AI-wet neemt laatste horde, ook Europees Parlement is akkoord´: https://nos.nl/artikel/2512594-ai-wet-neemt-laatste-horde-ook-europees-parlement-is-akkoord De komst van de Europese AI Act is een feit. Het Europees Parlement heeft ermee ingestemd, eerder al gaven de lidstaten groen licht. De wet moet ervoor zorgen dat er duidelijkere regels komen rond de grootste technologische ontwikkeling van dit moment: kunstmatige intelligentie (AI). Het wetsvoorstel werd aangenomen met 523 stemmen voor, 46 tegen en 49 onthoudingen. Aan de wet is jaren gewerkt. Daarom vanmiddag als ´kennisparel´ een update van de stand-van-zaken met betrekking tot de Europese wetgeving betreffende Artificial Intelligence (AI): https://oeil.secure.europarl.europa.eu/oeil/popups/ficheprocedure.do?reference=2021/0106(COD)&l=en De geïnteresseerde kennisparelontvangers verwijs ik naar deze eerder verstuurde ´kennisparels´ rond facetten van het onderwerp: 86;151;253;314;535;546;574; en 660, allemaal gratis te downloaden vanaf: https://prohic.nl/de-parels-van-jaap-de-waard/
De Europese Commissie heeft een voorstel ingediend voor een EU-regelgevingskader voor kunstmatige intelligence (AI) in april 2021. Het wetsontwerp AI is de eerste poging ooit om een horizontale verordening vast te stellen voor AI. Het voorgestelde wettelijk kader richt zich op het specifieke gebruik van AI-systemen en aanverwante risico’s. De Commissie stelt voor om in de EU-wetgeving een technologie neutrale definitie van AI-systemen vast te stellen en om een classificatie vast te stellen voor AI-systemen met verschillende eisen en verplichtingen op maat op een ‘risico gebaseerde benadering’.
Sommige AI-systemen die ‘onaanvaardbare’ risico’s met zich meebrengen, zouden verboden worden. Een breed scala aan AI-systemen met een hoog risico zou worden toegestaan, maar wordt onderworpen aan een reeks vereisten en verplichtingen om toegang te krijgen tot de EU-markt. Die AI-systemen die slechts ‘beperkt risico’ opleveren worden onderworpen zijn aan zeer lichte transparantieverplichtingen. De Raad stemde in met het algemeen standpunt van de EU-lidstaten in december 2021. Het Parlement stemde in juni 2023 over zijn standpunt.
EU-wetgevers zijn dus bezig geweest met het starten van onderhandelingen om de nieuwe wetgeving af te ronden. Dat bracht substantiële wijzigingen met zich mee in het voorstel van de Commissie en omvat onder meer een herziening van de definitie van AI-systemen en een verruiming van de lijst van verboden AI-systemen. Tevens is men voornemens om verplichtingen op te leggen aan AI-modellen voor algemeen gebruik en generatieve AI-modellen zoals ChatGPT. Bijgesloten ´kennisparel´ geeft de huidige stand-van-zaken weer van Europese AI-wetgeving die vandaag dus door het Europese Parlement is goedgekeurd.
Discussie wordt zeker nog vervolgd in toekomstige ´kennisparels´. O ja, deze is nog wel aardig om te vermelden. Vandaag publiceerde het Centraal Bureau voor de Statistiek (CBS) deze publicatie waarin het CBS de opbrengsten publiceerde van de eerste inventarisatie van beschikbare AI-indicatoren voor Nederland: https://www.cbs.nl/nl-nl/maatwerk/2024/11/inventarisatie-van-beschikbare-ai-indicatoren De inventarisatie dient als voorstudie voor een te ontwikkelen structurele AI-monitor, die een beeld moet geven van de impact van AI op de Nederlandse economie en samenleving. Er is een scan uitgevoerd van mogelijk bruikbare indicatoren die beschikbaar zijn bij het CBS vanuit lopend statistisch werk. Daarnaast zijn een aantal bredere, voornamelijk grootschalige, initiatieven buiten het CBS in kaart gebracht.
Bron
Madiega, Tambiama (March 2024). Artificial intelligence act. Brussels: European Parliamentary Research Service, Members’ Research Service, 12 pp. https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf
Summary
European Union lawmakers reached a political agreement on the draft artificial intelligence (AI) act in December 2023. Proposed by the European Commission in April 2021, the draft AI act, the first binding worldwide horizontal regulation on AI, sets a common framework for the use and supply of AI systems in the EU. It offers a classification for AI systems with different requirements and obligations tailored on a ‘risk-based approach’. Some AI systems presenting ‘unacceptable’ risks are prohibited. A wide range of ‘high-risk’ AI systems that can have a detrimental impact on people’s health, safety or on their fundamental rights are authorised, but subject to a set of requirements and obligations to gain access to the EU market.
AI systems posing limited risks because of their lack of transparency will be subject to information and transparency requirements, while AI systems presenting only minimal risk for people will not be subject to further obligations. The regulation also provides specific rules for general purpose AI (GPAI) models and lays down more stringent requirements for GPAI models with ‘high-impact capabilities’ that could pose a systemic risk and have a significant impact on the internal market. The provisional agreement has been endorsed by the Committee of Permanent Representatives of EU Member States and by Parliament’s two lead committees. Parliament’s plenary vote on the final agreement is scheduled for the March plenary session. The AI act must also be endorsed by Council and published in the EU’s Official Journal before entering into force. Third edition. ‘EU Legislation in Progress’ briefings are updated at key stages of the legislative procedure.
Afsluitend
AI heeft talloze toepassingen die al in de samenleving zijn geïntroduceerd: biometrische (inclusief gezichts-) herkenning, objectherkenning, risico- en succesvoorspelling, algoritmisch besluitvorming of ondersteuning, automatische vertaling, aanbevelingssystemen, enzovoort. Deze AI-toepassingen hebben hun weg gevonden naar vele sectoren in de maatschappij zoals rechtshandhaving, justitie, mens en middelenbeheer, financiële diensten, transport, gezondheidszorg, en openbare diensten. Deze toepassingen hebben bijzondere impact op mensenrechten, de democratie en de rechtsstaat in het algemeen.
Het feit dat AI bestaande vooroordelen kan bevestigen of versterken, is vooral relevant bij gebruik binnen de rechtshandhaving en criminaliteitsbestrijding. In situaties waar fysieke vrijheid of persoonlijke veiligheid op het spel staan, zoals bij predictive policing,: https://www.researchgate.net/publication/331354468_Cutting_Crime_Impact_Practice-based_innovation_in_preventing_investigating_mitigating_high-impact_petty_crime_A_selection_of_major_knowledge_sources_on_predictive_policing en recidive risico bepaling en veroordeling is het zaak om hier zeer kritisch op te zijn. Wanneer een AI-systeem bijvoorbeeld wordt gebruikt voor recidivevoorspelling of veroordeling kan dat vertrekkende gevolgen hebben voor de betrokken mensen. Het kan fungeren als een black box waardoor het onmogelijk is voor juridische professionals, zoals rechters, advocaten en officieren van justitie om de redenering achter de uitkomsten van het systeem te begrijpen.
Beslissingen worden meer en meer gebaseerd op algoritmes die met kunstmatige intelligentie zijn gemaakt. Dat brengt grote risico’s met zich mee, als burgers geconfronteerd worden met beslissingen waar men zich niet tegen kan verweren mede omdat niet helder is hoe die tot stand komen. Tegelijk weten we dat statistische gegevens vaak beter in staat zijn risico’s te beoordelen dan op ervaring gegronde oordelen. Er zal nadere regulering moeten komen voor de toepassing van algoritmes, waarvan belangrijke elementen zijn transparantie over hun werking, toetsing op discriminerende vertekening, en finale menselijk betrokkenheid bij de toepassing van de uitkomsten. Bijgesloten ´kennisparel´ geeft een mooi recent systematisch overzicht hoe hier mee om te gaan. Een discussie die nog lang niet is afgerond. AI zal de komende jaren een voortdurende aandacht nodig hebben om de kansen maar ook bedreigingen op een systematische en op evidentie gebaseerde wijze te voeren.