Inleiding
Goede morgen beste ´kennisparelontvangers´ en hopelijk ook lezers daarvan. Het is vandaag dinsdag 19 november 2024. Ik vertrek zo per trein richting Vlissingen om daar deel te nemen aan een expertsessie georganiseerd door het Strategisch Kenniscentrum Georganiseerde Ondermijnende Criminaliteit: https://skc-oc.org/ Maar voordat ik in de trein stap begin ik met een bijpassend liedje bij de ´kennisparel´ van vandaag: https://www.youtube.com/watch?v=fYoiCStDTQg Die betreft een prima systematisch overzicht op welke wijze het strafrechtsysteem wordt geconfronteerd met aanzienlijke bedreigingen door het toenemende gebruik van deepfakes. Hierdoor wordt het steeds lastiger om de geloofwaardigheid van bewijsmateriaal vast te stellen en voor rechtshandhavingsinstanties om de authenticiteit van dat bewijsmateriaal te verifiëren.
Een deepfake is beeld, geluid of ander materiaal dat nep is. Met machine learning en artificial intelligence wordt nieuwe digitale content gemaakt uit bestaande video’s, stemmen en afbeeldingen. Kwalitatief goede deepfakes zijn niet of nauwelijks van echt te onderscheiden. En dat geeft op allerlei terreinen problemen, ook de wijze waarop de politie en justitiële organisaties hiermee moet omgaan. De bekendste deepfakes zijn waarin het gezicht van de ene persoon wordt verwisseld met dat van een ander. Deepfakes zijn dus teksten, beelden, video’s en audio-bewerkingen die door kunstmatige intelligente software zijn gemaakt. De term deepfake combineert de Engelse woorden deep en fake. Deep verwijst naar de kunstmatig intelligente deep learning-netwerken. Fake staat voor nep.
De toename van deepfakes heeft geleid tot nieuwe soorten cybercriminaliteit die bestaande bedreigingen vergoten en ernstige psychologische, maatschappelijke en financieel/economische gevolgen hebben. Om deze bedreigingen voor het strafrechtssysteem effectief te bestrijden is het essentieel om geavanceerde detectietechnologieën te benutten. Hoewel sommige universiteiten en commerciële bedrijven wereldwijd methoden ontwikkelen om deepfakes te detecteren en te beperken is het merendeel van dat onderzoek geconcentreerd in China. Het is cruciaal om nieuwe wetten in te voeren die expliciet ingaan op de creatie en distributie van deepfakes. Daarnaast moeten bestaande wetten voor digitale privacy worden gewijzigd om de uitdagingen van deepfakes op te nemen, zodat het juridische kader robuust en relevant blijft in het licht van de evoluerende technologische bedreigingen.
Het ontwikkelen en implementeren van strenge normen voor het verifiëren van digitaal bewijs in de rechtbank is essentieel. Dit omvat het vaststellen van protocollen voor het verifiëren van de authenticiteit van video’s, audio´s en afbeeldingen die worden gebruikt in gerechtelijke procedures. Dergelijke normen zullen helpen de integriteit van het bewijs dat in de rechtbank wordt gepresenteerd te behouden en eerlijke en nauwkeurige gerechtelijke uitkomsten te garanderen. Om de wereldwijde aard van de deepfake-dreiging effectief te bestrijden is het bevorderen van nationale en internationale samenwerking noodzakelijk. Het ontwikkelen en delen van best practices voor deepfake-detectie moet een prioriteit zijn.
Bron
Sandoval, Maria-Paz, Maria de Almeida Vau, John Solaas & Luano Rodrigues (November 2024). Threat of deepfakes to the criminal justice system: A systematic review. Crime Science, vol. 31, no. 41, pp. 1-16. https://crimesciencejournal.biomedcentral.com/articles/10.1186/s40163-024-00239-1
Samenvatting
This systematic review explores the impact of deepfakes on the criminal justice system. Deepfakes, a sophisticated form of AI-generated synthetic media, have raised concerns due to their potential to compromise the integrity of evidence and judicial processes. The review aims to assess the extent of this threat, guided by a research question: (1) What threats do deepfakes pose to the criminal justice system?
The review was conducted using databases such as Web of Science, ProQuest, Scopus, and Google Scholar, focusing on publications from 2021 to 2022. Search terms were optimized for sensitivity and specificity, and articles were chosen based on criteria including relevance to deepfake threats and deepfake detection research. The methodology included rigorous screening processes using tools like Zotero and Rayyan.ai, with an emphasis on inter-rater reliability to ensure objective selection of studies.
The search initially identified 1355 articles, with 1200 articles screened for eligibility after duplicates were removed. For the threat of deepfakes to the criminal justice system, 110 studies were selected for full-text review, and 44 were included in the final analysis. Key findings include identification of primary crime categories linked to deepfakes, such as pornography, fraud, and information manipulation, alongside challenges like trust erosion in institutions and evidence falsification issues.
Deepfakes significantly threaten the criminal justice system, highlighting the necessity for advanced detection methods. These findings underscore the importance of continued research and development in deepfake detection technologies and strategies for legal safeguards and broader implications on policy, national security, and democratic processes.
Afsluitend
Er is een hele wereld op gang gekomen tussen echt en nep. Daarmee zullen we steeds meer mee geconfronteerd worden. Manipulatie via deepfakes is dus deels een nieuwe realiteit. Tja, niet alles is wat het lijkt. Zeker met het oog op de beschreven ontwikkelingen in bijgesloten rapport. Zogenaamde ‘deepfakes’ zijn een nieuwe vorm van desinformatie die een uitdaging vormt voor de samenleving als geheel. Bijvoorbeeld gemanipuleerde video’s zijn het resultaat van machine learning en kunnen de indruk wekken alsof iemand iets zegt of doet, terwijl hij of zijn in werkelijkheid nooit iets dergelijks heeft gezegd of gedaan. Aan de hand van veel echte voorbeelden van spraak en bewegend beeld wordt een zogenaamd neuraal netwerk opgezet dat kan worden gebruikt om een deepfake te creëren om burgers te misleiden. Zo werd Barack Obama ooit gehoord en gezien toen hij Donald Trump in een online video ‘een totale en complete dipshit’ noemde. In werkelijkheid is dit nooit gebeurd, maar het was trouwens wel een terechte observatie.
Een aantal jaar gelden verscheen ook een in opdracht door het WODC onderzoek naar het fenomeen. In dat onderzoek is gekeken naar de negatieve toepassingen en gevolgen van deepfake zoals pornografie, fraude en misleiding, haat zaaien, het verspreiden van misinformatie en het beïnvloeden van democratische verkiezingen. Naast kwalijke gevolgen voor direct betrokkenen kunnen deepfakes ook maatschappelijke gevolgen hebben. Daarbij valt te denken aan een afnemend vertrouwen in de media, de democratie en de rechtspraak als van veel digitale content niet meer duidelijk is of het authentiek is. Betreffende onderzoek is te downloaden vanaf: https://repository.wodc.nl/handle/20.500.12832/3134
De algemene conclusie is dat de verhoogde kans op deepfakes de samenleving dwingt tot een hoger wantrouwen ten aanzien van alle audio-grafische informatie. Audio-grafisch bewijs zal met meer scepsis moeten worden geconfronteerd en aan hogere eisen moeten voldoen. Individuen en instellingen zullen nieuwe vaardigheden en procedures moeten ontwikkelen om een betrouwbaar beeld van de werkelijkheid op te bouwen, aangezien ze onvermijdelijk worden geconfronteerd met misleidende informatie. Bovendien is deepfake-technologie zich snel aan het ontwikkelen. Er zijn geen snelle oplossingen. Het beperken van de risico’s van deepfakes vereist dus continue reflectie en permanent leren op alle bestuursniveaus, ook binnen de strafrechtketen.