Inleiding en context
Goede morgen beste ´kennisparelontvangers´, het is vandaag donderdag 20 april 2023. Vandaag even heel snel een ´korte kennisparel´ in jullie mailbox over de kansen en bedreigingen van artificial intelligence (AI) voor gemeenschappelijk gebruik. Maar eerst een toepasselijk liedje bij deze ´kennisparel´: https://www.youtube.com/watch?v=abu2otMwDo4 Er is op dit moment volop discussie gaande in hoeverre de ontwikkelingen rond kunstmatige intelligentie kunnen worden beoordeeld op kansen en bedreigingen. Eerder verstuurde ik deze ´kennisparels´ die aspecten van kunstmatige intelligentie beschrijven: 86;151;253;314 en 535, allemaal gratis te downloaden vanaf: https://prohic.nl/de-parels-van-jaap-de-waard/
Er bestaan en groot aantal AI-modellen voor algemene doeleinden, kenmerken daarvan zijn hun grote omvang, ondoorzichtigheid en potentieel onverwachte capaciteiten en mogelijkheden die verder gaan dan de oorspronkelijke bedoeling was van hun producenten. Dit roept tal van vragen op. Studies hebben aangetoond dat grote taalmodellen (LLM’s) zoals ChatGPT, ethisch en sociale risico’s met zich meebrengen. Ze kunnen discriminatie en stereotypering tot gevolg hebben en daarmee sociale vooroordelen in stand houden en bijvoorbeeld aanzetten tot haat of geweld. Ze vormen een risico voor persoonlijke en privacygevoelige informatie, het verspreiden van valse of misleidende informatie om daarmee bijvoorbeeld de doeltreffendheid van desinformatiecampagnes te vergroten.
Zo waarschuwde Europol onlangs over de gevaren van ChatGPT in relatie tot de rechtshandhaving: https://www.europol.europa.eu/publications-events/publications/chatgpt-impact-of-large-language-models-law-enforcement Grote taalmodellen (LLM’s) zoals ChatGPT maken snelle vorderingen en zijn nu mainstream geworden. Dit is een belangrijke stap voorwaarts voor machine learning omdat het laat zien dat het zowel alledaagse taken als complexe creatieve taken aankan. De ontwikkelingen met LLM’s hebben potentiële implicaties voor alle sectoren, maar ook voor criminelen. Dus wat betekent dit voor de rechtshandhaving? Als reactie op de groeiende publieke aandacht voor ChatGPT organiseerde het Europol Innovation Lab onlangs een aantal workshops met experts uit de hele organisatie om te onderzoeken hoe criminelen LLM’s kunnen misbruiken en hoe dit de rechtshandhaving kan helpen bij hun dagelijkse werk.
Bron
Madiega, Tambiama (March 2023). General-purpose artificial intelligence. Brussels, European Parliament, European Parliamentary Research Service, 2 pp. https://www.europarl.europa.eu/RegData/etudes/ATAG/2023/745708/EPRS_ATA(2023)745708_EN.pdf
Summary
General-purpose artificial intelligence (AI) technologies, such as ChatGPT, are quickly transforming the way AI systems are built and deployed. While these technologies are expected to bring huge benefits in the coming years, spurring innovation in many sectors, their disruptive nature raises policy questions around privacy and intellectual property rights, liability and accountability, and concerns about their potential to spread disinformation and misinformation. EU lawmakers need to strike a delicate balance between fostering the deployment of these technologies while making sure adequate safeguards are in place.
Afsluitend
De release en het wijdverbreide gebruik van ChatGPT – een groot taalmodel (LLM) ontwikkeld door OpenAI: https://openai.com/ – heeft veel publieke aandacht gekregen, voornamelijk vanwege zijn vermogen om snel kant-en-klare antwoorden te geven die kunnen worden toegepast binnen een groot aantal verschillende contexten. Deze modellen hebben massa’s potentieel. Machine learning, ooit bedacht om alleen alledaagse taken te verwerken, heeft bewezen in staat te zijn tot zeer complex creatief denkwerk. LLM’s worden steeds meer verfijnd en nieuwe versies worden regelmatig uitgerold met nog meer technologische mogelijkheden.
Terwijl dit grote kansen biedt aan legitieme bedrijven en leden van het publiek kan het ook een risico zijn voor misbruik door criminele actoren die het voor strafbare doeleinden willen misbruiken en daarmee grote maatschappelijke schade kunnen aanrichten. Er zal nadere regulering moeten komen voor de toepassing van deze technieken waarvan belangrijke elementen zijn transparantie over hun werking, toetsing op discriminerende vertekening en finale menselijk betrokkenheid bij de toepassing van de uitkomsten. Werk aan de winkel voor wetgevers en belangenpartijen.