Inleiding en context
Vandaag 18 augustus 2020, en aan de zomer van 2020 komt nog lang geen einde. Een prachtige zomer voor iedereen die in Nederland een welverdiende vakantie viert. En je hoort het om je heen: wat is Nederland eigenlijk mooi, en er zijn nog vele onbekende geografische pareltjes te bezichtigen. Maar nu naar de ´kennisparel´ van vandaag, die gaat over de manier waarop binnen Europa wordt omgegaan om illegale inhoud van online platforms te weren. Ook in Nederland is dat momenteel zowel beleidsmatig als in de handhavingspraktijk een ´hot topic´. Eerder verzond ik al ´kennisparel´ nummer 7 (´Online Harms White Paper´) over de wijze waarop men o.a. in het Verenigd Koninkrijk omgaat met dit fenomeen.
Het internet biedt talloze nieuwe mogelijkheden waardoor individuen online met elkaar kunnen interacteren en communiceren. Online dienstverleners zoals Facebook, Youtube en Twitter bieden mensen een platform om zichzelf te uiten en informatie met elkaar te delen. De platformen die worden geboden kunnen echter ook gebruikt worden voor het verspreiden van content die om tal van redenen als ongewenst kan worden beschouwd door mensen, de dienstverlener en de maatschappij in brede zin. Te denken valt aan het verspreiden van desinformatie, het doen van discriminerende uitingen en het delen van terroristische propaganda. Maar bijvoorbeeld ook de verspreiding van naaktfoto’s (zie ook ´kennisparel´ 36: The Prevalence of Unwanted Online Sexual Exposure and Solicitation Among Youth: A Meta-Analysis) kan door bepaalde platformen als ongewenst worden bestempeld. Hoe ziet de aanpak ter voorkoming van dit fenomeen er uit in Europa? Bijgesloten vergelijkende studie geeft hierover een gesystematiseerd overzicht. Er wordt ook een zogenaamde ´benchmark´ gepresenteerd betreffende een aantal landen buiten Europa. Een lezenswaardige studie naar mijn mening.
Bron
De Streel, Alexandre, Elise Defreyne, Hervé Jacquemin, Michele Ledger, Alejandra Michel, Allessandra Innesti, Marion Goubet & Dawid Ustowsli (June 2020). Online Platforms’ Moderation of Illegal Content Online: Law, Practices and Options for Reform. Brussels: European Parliament. https://www.europarl.europa.eu/RegData/etudes/STUD/2020/652718/IPOL_STU(2020)652718_EN.pdf
Samenvatting
Online platforms have created content moderation systems, particularly in relation to tackling illegal content online. Such moderation practices can include depublication, delisting, downranking and can lead to some forms of censorship of information and/or user accounts from social media and other online platforms. Those practices may have an impact on the overall quality and quantity of online content. They are usually based on an alleged violation of online platforms’ Community Standards/Guidelines policies. Whether faced with online disinformation, harassment, or violence, content moderators have a fundamental role to play in online platforms. However, the tools that online platforms use to curb trolling, ban hate speech, or restrict pornography can also silence content relevant to the public. In recent years, content moderation practices have become a matter of intense public interest. Also, the co-existence of different moderation practices at national level could affect the functioning of the Internal Market.
In its 2020 Digital Strategy Communication, the European Commission noted that “it is essential that the rules applicable to digital services across the EU are strengthened and modernised, clarifying the roles and responsibilities of online platforms. The sale of illicit, dangerous or counterfeit goods, and dissemination of illegal content must be tackled as effectively online as it is offline”. Therefore, the Commission announced as one key action part of the Digital Services Act (DSA) package: “new and revised rules to deepen the Internal Market for Digital Services, by increasing and harmonising the responsibilities of online platforms and information service providers and reinforce the oversight over platforms’ content policies in the EU”.
This study analyses the current EU legal framework on online content moderation, the practices of key online platforms active in the EU and, on that basis, makes recommendations for reforms.
The study is organised as follows: after this introduction, Section 2 reviews the EU legal framework for online content moderation and also briefly summarises interesting national laws or initiatives (in Germany, France and the UK). Section 3 provides an overview of the online content moderation practices on the basis of interviews of online platforms and other stakeholders. Section 4 reviews briefly some policies and recommendations on online content moderation practices made in other regions of the world. On the basis of all the information included in the previous sections, Section 5 makes recommendations to improve the EU legal framework on online content moderation.
Afsluitend
Online platformen kunnen een belangrijke rol spelen in het voorkomen en stoppen van de verspreiding van illegale content. Zij stellen regels op en nemen beslissingen over de wijze waarop bepaalde content wordt weergegeven en bepalen of content minder prominent zichtbaar moet zijn, verwijderd dient te worden of überhaupt online komt. Dit proces wordt ook wel content moderatie genoemd. Voor het modereren van content wordt door platformen in toenemende mate gebruik gemaakt van algoritmen. Platformen zijn in beginsel echter niet verplicht om openheid van zaken te geven met betrekking tot de werking van hun technologieën en de inzet om content te modereren. En daar wringt zich vaak de schoen, het blijft vaak ondoorzichtig in hoeverre platformen daadwerkelijk en in welke mate aan zogenaamde content moderatie doen. Bijgesloten ´kennisparel´ biedt in ieder geval een mooi overzicht hoe het Europese en internationale landschap er momenteel uit ziet op dit terrein.