Inleiding en context

Goede morgen beste mensen op deze maandag 11 juli 2022. Zo langzamerhand zijn de vakanties begonnen merk ik aan de vele afwezigheidsmelders. Geniet ervan. En voor diegenen die nog werken voor hun geld en vooral om de criminaliteit in Nederland te bestrijden en te voorkomen vandaag weer een verse ´kennisparel´ in jullie mailbox. Maar eerst een protestsong tegen meneer Poetin: https://www.youtube.com/watch?v=NjiTzVyXRFE Maar ja wie is nu niet tegen die man? Afijn de ´kennisparel´ van vandaag gaat over de wijze waarop Internet providers omgaan met het verwijderen van beelden waarin kinderen seksueel worden misbruikt. Eerder verstuurde ik deze ´kennisparel´ over de effectiviteit van online waarschuwingsberichten die individuen zouden weerhouden van het bezoeken van illegale pornografie waaronder seksueel misbruik van kinderen: https://prohic.nl/2022/06/22/410-22-juni-2022-warning-messages-to-prevent-illegal-sharing-of-sexual-images-results-of-a-randomised-controlled-experiment/

Het meest relevante onderzoek dat tot nu toe is uitgevoerd heeft zich gericht op de kenmerken van personen die beelden van seksueel misbruik van kinderen bekijken, distribueren of produceren. Minder onderzoek heeft zich gericht op de specifieke online platforms waar dergelijke beelden worden gedeeld en de methoden die deze platforms gebruiken om deze beelden te detecteren en te verwijderen. Mede gezien de recente toename van het aantal van dergelijke beelden die gedetecteerd worden door online platforms, de nadelige gevolgen voor slachtoffers en het dynamische karakter van dit type delict, is het van cruciaal belang om de omvang en aard van het probleem beter te doorgronden en de gebruikte detectie- en verwijderingsmethoden in kaart te brengen. Het doel van bijgesloten ´kennisparel´ is om een waardevolle bron te bieden voor het informeren van beleid over de wijze waarop online platforms beelden van seksueel kindermisbruik op hun platforms detecteren en verwijderen.

Bron

Teunissen, Coen & Sarah Napier (July 2022). Child sexual abuse material and end-to-end encryption on social media platforms: An overview. Canberra: Australian Institute of Criminology, 19 pp.https://www.aic.gov.au/sites/default/files/2022-07/ti653_csam_and_end-to-end_encryption_on_social_media_platforms.pdf

Samenvatting

This paper reviewed open-source materials including electronic service provider (ESP) transparency reports to provide an overview of the contemporary problem of child sexual abuse material (CSAM) offending on ESP platforms, examine measures currently used by ESPs to detect and prevent CSAM offending, and explore the potential impact of end-to-end encryption on CSAM distribution and detection. The study found that the platforms with the highest user bases are actively detecting and removing CSAM. However, some are less transparent than others about the methods they use to prevent, detect and remove CSAM, omitting key information that is crucial for future best practice in reducing CSAM offending. Further, the adoption of end-to-end encryption by platforms that detect and remove large amounts of CSAM from their platforms will likely provide a haven for CSAM offenders. Implications for ESPs and international law reform are discussed.

While most ESPs examined in this study are publicly opposed to CSAM and proactively detect and remove it, they are unfortunately still inadvertently facilitating its distribution. There are also concerns that ESPs are deflecting responsibility for preventing CSAM distribution and focusing on reporting CSAM if they find it. The staggering amount of CSAM reported by ESPs places a huge burden on law enforcement, who struggle to keep up with the workload. There are several measures that ESPs should adopt to help address the problem.

Firstly, every company should be consistent in their reporting of CSAM and transparent about their definitions of CSAM and the specific measures they use to prevent, detect and report it. Providing this detailed information will help enforce best practice standards and assist companies to improve their tools for preventing harm to children.

Secondly, more responsibility should be placed on ESPs to prevent CSAM from being uploaded in the first instance. These platforms should adopt evidence-based methods such as pop-up warning messages, which can deter engagement with CSAM and refer individuals to sources of support to stop their offending. Deterrence messaging campaigns can potentially also reach large numbers of individuals. These tools should also be evaluated; Meta currently uses pop-up warning messages to deter child sexual exploitation, yet there is no information publicly available on their impact or effectiveness.

Lastly, ESPs should invest in more innovative technology. Currently, NeuralHash, Apple’s proposed technology to scan devices for CSAM, is the only publicly described tool that will detect CSAM in an end-to-end encryption environment. Although Apple has delayed the release of this technology, ESPs should similarly invest in developing technology to prevent CSAM from being uploaded onto their platforms in the first instance. This would supplement their current methods of detecting and removing CSAM from their platforms.

Afsluitend

Het probleem van overtredingen waarbij beeldmateriaal van seksueel misbruik van kinderen op online platforms wordt aangeboden groeit, de dynamiek verandert snel en neemt in ernst toe onder andere door wereldwijde gebeurtenissen zoals de COVID-19-pandemie. Daarom is bijgesloten ´kennisparel´ ondanks zijn beperkingen waardevol in het tijdig verstrekken van een systematisch overzicht van deze dynamische en schadelijke misdaad. Al is het alleen al om de om de online industrie, het beleid en de operationele praktijk te helpen informeren om de rechtshandhaving daarvan op een adequate manier vorm te geven. En meest belangrijk om slachtofferschap van jonge kinderen te voorkomen.

421-ChildSexualAbuseMaterialEndtoEndEncryptionSocialMediaPlatformsOverview.July2022Downloaden