Inleiding en context
Ik wens jullie allemaal het beste toe op deze maandag 27 maart 2023. Maak er een fijne week fijn en wees een beetje aardig voor elkaar. Uiteraard ook nu weer een verse ´kennisparel´ in jullie mailbox. Dit liedje past bij de ´kennisparel´ van vandaag: https://www.youtube.com/watch?v=ITSB_6m4up4 Dit keer een ´kennisparel´ over artificial intelligence en dan in het bijzonder een overzicht van recent verschenen kennis over het onderwerp vervaardigd door verschillende denktanks binnen Europa. Kunstmatige intelligentie of artificial intelligence (AI) binnen de rechtshandhaving en criminaliteitsbestrijding zal de komende jaren een groeimarkt bij uitstek blijken te zijn.
De EU en haar lidstaten wenden zich in toenemende mate tot technologieën voor kunstmatige intelligentie. Volgens aanbevelingen van het Europees Parlement uit mei 2022 heeft AI een enorm potentieel om de kapitaal- en arbeidsproductiviteit, innovatie, groei en het scheppen van banen te stimuleren. De ontwikkeling ervan zou echter ook de weg kunnen effenen voor mogelijk massaal toezicht en andere schadelijke gevolgen voor fundamentele rechten en waarden. Bijgesloten ´kennisparel´ biest een overzicht van links naar de recente publicaties en commentaren van vele internationale denktanks over kunstmatige intelligentie.
Bron
Grajewski, Marcin (March 2023). Artificial intelligence: What Think Tanks are thinking. Brussels: European Parliament, European Parliamentary ResearchService, 3 pp. https://www.europarl.europa.eu/RegData/etudes/BRIE/2023/745695/EPRS_BRI(2023)745695_EN.pdf
Summary
The recent launches of artificial intelligence (AI) tools capable of generating direct textual answers to questions, notably the chatbot ChatGPT, and the development of general-purpose AI technologies, are expected to revolutionise the application of AI in society and the economy. New AI tools offer massive potential for developments in industry, agriculture, health, education and other areas. However, many scientists and politicians are calling for the establishment of a legal and ethical framework to avoid potentially detrimental impacts from the use of such technologies.
The uptake of AI systems has a strong potential to bring societal benefits and economic growth and enhance EU innovation and global competitiveness. At the same time, it is commonly acknowledged that the specific characteristics of certain AI systems raise some concerns, especially about safety, security and fundamental rights protection. A reflection has started in the EU on how to address those concerns. The European Commission published in February 2020 White Paper on Artificial Intelligence and proposed to set up a European regulatory framework for trustworthy AI. The European Parliament adopted in October 2020 three legislative resolutions on AI covering ethics, civil liability, and intellectual property (IP) and asked the Commission to establish a comprehensive and future-proof European legal framework of ethical principles for the development, deployment and use of AI, robotics and related technologies. However, its development could also pave the way for potential mass surveillance and other detrimental impacts on fundamental rights and values. This note gathers links to recent publications and commentaries from many international think tanks on Artificial Intelligence.
Against this background, the European Commission unveiled a new Artificial Intelligence Act (AI Act) proposal in April 2021. The Commission proposes to enshrine a technology-neutral definition of AI systems in EU law. The Commission proposes as well to adopt a different set of rules tailored to a risk-based approach with four levels of risks:
The co-legislators are now discussing the proposal, the European Parliament and the Council. The Council adopted its common position (‘general approach’) on the AI Act on 6 December 2022. The Council’s text, inter alia:
Afsluitend
Beslissingen worden meer en meer gebaseerd op algoritmes die met kunstmatige intelligentie zijn gemaakt. Dat brengt grote risico’s met zich mee, als burgers geconfronteerd worden met beslissingen waar men zich niet tegen kan verweren mede omdat niet helder is hoe die tot stand komen. Tegelijk weten we dat statistische gegevens vaak beter in staat zijn risico’s te beoordelen dan op ervaring gegronde oordelen. Er zal nadere regulering moeten komen voor de toepassing van algoritmes, waarvan belangrijke elementen zijn transparantie over hun werking, toetsing op discriminerende vertekening en finale menselijk betrokkenheid bij de toepassing van de uitkomsten.
Hoewel veel aandacht is besteed aan de kwestie van vooringenomenheid en discriminatie wordt geconcludeerd dat zelfs nauwkeurige en onpartijdige AI-systemen aanzienlijke risico’s kunnen inhouden, waaronder gegevensbescherming en privacy. Het toegenomen gebruik van bijvoorbeeld biometrische gegevens in EU-informatiesystemen vergroot het risico van onrechtmatige profilering (gezichtsfoto’s kunnen bijvoorbeeld etnische afkomst onthullen). Zelfs wanneer profilering niet is gebaseerd op biometrische of persoonlijke gegevens kunnen andere soorten gegevens of combinaties daarvan die worden gebruikt voor algoritmische profilering leiden tot discriminatie op grond van oneigenlijke toepassingen. Het toepassen van technologieën zonder het hoofd te bieden aan valkuilen zoals technologisch determinisme en de mythe van technologische neutraliteit zou de grondrechten, transparantie en aansprakelijkheid verder kunnen verzwakken.