Inleiding
Goede morgen allemaal op deze dinsdag 22 oktober 2024. Ik begin de dag met een zonnig liedje: https://www.youtube.com/watch?v=DBaKWLoFYmQ Mooi. Maar nu naar de ´kennisparel´ van vandaag, die geeft een prima overzicht over online vertrouwen en veiligheid en in het bijzonder zogenaamde content moderatie. Die inspanningen richten zich op het verminderen van de aanwezigheid en impact van negatieve content in de online wereld. Met een goed ontworpen platformarchitectuur kan dit doel worden bereikt.
Het internet biedt talloze nieuwe mogelijkheden waardoor individuen online met elkaar kunnen interacteren en communiceren. Online dienstverleners zoals X, Youtube, Instagram, WhatsApp en Tiktok bieden mensen een platform om zichzelf te uiten en informatie met elkaar te delen. De platformen die worden geboden kunnen echter ook gebruikt worden voor het verspreiden van content die om tal van redenen als ongewenst kan worden beschouwd door mensen, de dienstverlener en de maatschappij in brede zin. Te denken valt aan het verspreiden van desinformatie, het doen van discriminerende uitingen, verkoop van illegale goederen en diensten en het delen van terroristische propaganda. Maar bijvoorbeeld ook de onvrijwillige verspreiding van naaktfoto’s kan door bepaalde platformen als ongewenst worden bestempeld. Hoe ziet de aanpak ter voorkoming van dit fenomeen er uit?
Zolang mensen in georganiseerde groepen samenleven, is er behoefte aan regels die gedrag reguleren en autoriteiten en instellingen die die regels implementeren en handhaven. Deze regels zijn in de loop van de tijd en tussen samenlevingen veranderd, omdat de aard van sociale communicatie en gedrag is veranderd. Bijgesloten ´kennisparel´ richt zich op de handhaving en regulering van één vorm van sociale communicatie: berichten, posts, opmerkingen en alle andere digitale interacties die plaatsvinden op hedendaagse sociale media en grote online platforms.
Elke discussie over de online platforms van vandaag moet beginnen met hun snelle en verbazingwekkende groeisnelheid. Facebook (nu Meta) werd opgericht in 2004 en heeft vandaag de dag, twintig jaar later, ongeveer 3,4 miljard maandelijkse actieve gebruikers via zijn diensten waar het meer dan 100 miljard berichten per dag verwerkt. Naast enkele van de grootste platforms zoals Facebook, X (voorheen Twitter), Instagram, WhatsApp en TikTok, elk met honderden miljoenen actieve gebruikers, bestaan er tientallen kleinere platforms zoals Nextdoor, Discord, Reddit, Snapchat, BeReal en Clubhouse, waar tientallen miljoenen mensen samenkomen om met elkaar te communiceren en verbinding te maken. Deze nieuwe technologie heeft het gemakkelijk gemaakt om bijna onmiddellijk te communiceren met individuen of groepen over de hele wereld. Online platforms hebben communicatie veel gewenste functies gegeven. Sociale communicatie via online platforms is vandaag de dag alomtegenwoordig geworden.
De opkomst van online communicatiekanalen heeft gelijktijdig plaatsgevonden met afnames in het bereik en de frequentie van ouderwetse persoonlijke sociale interacties. Tot op zekere hoogte hebben online platforms een nieuwe manier geboden om oude dingen te doen en nieuwe vormen van communicatie en verbinding mogelijk gemaakt. Naarmate online platforms centraal zijn komen te staan in het gedeelde sociale leven van mensen zijn platform gebaseerde interacties onvermijdelijk ook negatieve aspecten gaan bevatten in menselijke relaties.
Bron
Tyler, Tom, Tracey Meares & Matt Katsaros (January 2025, to appear). New Worlds Arise: Online Trust and Safety. Annual Review of Criminology, vol. 8, January, pp. 1-22. https://www.annualreviews.org/content/journals/10.1146/annurev-criminol-111523-122337
Summary
Over the past two decades around the world, people’s social lives are increasingly occurring within online digital spaces. Throughout this transition, social media platforms have been struggling to govern an increasing number of complex social phenomena that have carried over from our offline world to these new social platforms, ranging from bullying and harassment to the sale of illicit goods.
In their attempts to build out systems to govern these issues, many platforms have drawn inspiration from models borrowed from the offline world familiar to criminologists. In this review, we draw attention to the field of online trust and safety. We provide an overview of the ways platforms have developed tools and systems to govern the people, content, and interactions that take place on their platforms while also looking at the way the field itself has developed rapidly over the past few years. Lastly, we look at research that exposes opportunities for promising paths forward to govern these digital social spaces, highlighting the ways that criminology research can positively contribute toward building vital online communities.
The idea of group moderation has been excitingly extended into self-governance in some smaller platforms. Just as the rapid emergence of online platforms provided an opportunity to reimagine regulation in a new world, this same online world provides opportunities to reimagine governance. Forums such as Nextdoor create the potential for people within a geographical community to work together to solve shared problems. Recent research emphasizes the capacity of small online groups to promote group-based identity and effectively deliberate to reach consensus about issues of governance.
These efforts address one of the major limitations of many of the regulatory efforts ongoing in the online world. Those efforts focus on lessening the presence and impact of negative content in the online world. Although important, it should always be remembered that the absence of bad content is not the same as the presence of good. An initial hope for the online world is that it might promote positive interactions and facilitate the development of vital communities both online and offline. Efforts to promote shared identity and empower users combined with well-designed platform architecture can help to advance this goal.
Afsluitend
Online platformen kunnen een belangrijke rol spelen in het voorkomen en stoppen van de verspreiding van illegale content. Zij stellen regels op en nemen beslissingen over de wijze waarop bepaalde content wordt weergegeven en bepalen of content minder prominent zichtbaar moet zijn, verwijderd dient te worden of überhaupt online komt. Dit proces wordt ook wel content moderatie genoemd. Voor het modereren van content wordt door platformen in toenemende mate gebruik gemaakt van algoritmen. Platformen zijn in beginsel echter niet verplicht om openheid van zaken te geven met betrekking tot de werking van hun technologieën en de inzet om content te modereren. En daar wringt zich vaak de schoen, het blijft vaak ondoorzichtig in hoeverre platformen daadwerkelijk en in welke mate aan zogenaamde content moderatie doen.
Ten slotte, graag verwijs ik de geïnteresseerde lezers naar het Project Online Content Moderatie: https://hetccv.nl/themas/cyberveiligheid/online-aangejaagde-ordeverstoringen/project-online-content-moderatie/ Het Project Online Content Moderatie (PrOCoM) biedt een publiek-privaat kader waarbinnen burgers, overheid en internetsector makkelijker kunnen handelen bij online materiaal dat strafbaar is, schade toebrengt of maatschappelijk ongewenste effecten met zich meebrengt. Om dat te realiseren heeft het PrOCoM 4 operationele doelen:
- Publieke private samenwerking: het inrichten van een structuur voor publieke en private partijen om samen te werken op het gebied van online content moderatie.
- Laagdrempelige meldvoorziening voor de burger: het tot stand brengen van een laagdrempelige voorziening voor burgers voor het kunnen melden van onrechtmatige online content.
- Lokale Aanpak: A. Het beschikbaar hebben van instrumenten voor lokale bestuurders om online aangejaagde openbare orde problemen te voorkomen of te beperken. B. Het voorleggen van een advies over een voorziening om online content ontoegankelijk te maken op verzoek van het lokale bestuur.
- Kennis & Kunde: het opbouwen en duurzaam onderhouden van kennis en kunde over de werking van internet, online fenomenen en content moderatie.