quote:
Op woensdag 4 maart 2026 17:16 schreef Hanca het volgende:VvMU is wat mij betreft gelukkig niet absoluut en de overheid vindt dat ook niet. Bedreigen, groepsbelediging, discriminatie, haatzaaien, smaad... er zijn tal van punten waarop de vrijheid van meningsuiting is begrensd. De VvMU is niet absoluut en kan en mag dat ook nooit worden.
Dat even los van die algoritmes. Hier is het natuurlijk zo dat aan de ene kant sociale media bedrijven zijn die zelf mogen kiezen hoe ze hun bedrijf voeren. Kranten mogen ook kiezen welk nieuws ze brengen en met welke insteek ze dat doen.
Maar aan de andere kant zijn de sociale media zo groot geworden, dat hun invloed zo groot is dat regulering daarop wat mij betreft wel terecht is.
Gisteren was hierover een rondetafelgesprek in de Tweede Kamer. Daar werd zowel gesproken over de rol van aanbevelingsalgoritmes in politieke zichtbaarheid als over hoe goed platforms illegale of schadelijke content verwijderen.
Eigenlijk liepen er twee discussies door elkaar:
1. Hoe goed verwijderen platforms illegale of schadelijke content.
2. In hoeverre zijn platforms verantwoordelijk voor de effecten van hun aanbevelingssystemen op het publieke debat.
Platforms presenteren zichzelf daarbij vooral als technologiebedrijven die gebruikerscontent hosten, niet als redacties die actief bepalen wat het publiek te zien krijgt.
Je vergelijking met traditionele media is sterk. Kranten mogen zelf bepalen welk nieuws ze plaatsen, maar mogen geen strafbare uitingen publiceren zoals smaad, haatzaaien of oproepen tot geweld. Publieke media binnen de Nederlandse Publieke Omroep hebben daarnaast wettelijke waarborgen rond onafhankelijkheid en pluriformiteit. Oftewel er is vrijheid binnen regels en wetten.
Met de Europese Digital Services Act zijn er ook voor sociale media regels gekomen. Grote platforms moeten onder andere:
• risico’s voor samenleving en democratie in kaart brengen
• hun moderatie, algoritmes en systemen aanpassen om risico’s te verkleinen
• uitleggen welke maatregelen zij nemen
Als je kijkt naar wat er rond de Tweede Kamerverkiezingen van 2025 werd gesignaleerd, lijkt dat nog niet echt goed te lukken.
![Dreiging.png]()
Platforms lijken zich vooral verantwoordelijk te voelen voor het verwijderen van illegale content. In de radiouitzending van
BNR Studio Den Haag kwam ook naar voren dat platforms hun verantwoordelijkheid vaak zo zien. Dat TikTok niet eens aanwezig was bij het rondetafelgesprek zegt in dat opzicht ook wel iets.
Als het publieke debat steeds meer plaatsvindt op commerciële platforms met algoritmes die aandacht maximaliseren, wie zou daar uiteindelijk verantwoordelijk voor moeten zijn: de overheid, de platforms zelf, of de samenleving die ervoor kiest deze systemen te gebruiken?