Algoritmes mogen geen architect zijn van onze feed
Algoritmes ontnemen keuzevrijheid en werken discriminatie in de hand
Die algoritmes kunnen onbedoeld leiden tot discriminatie op basis van gender, huidskleur of leeftijd. Het is bijvoorbeeld mogelijk dat mensen van een bepaalde leeftijdsgroep of gender in het verleden vaak doorklikte op een bepaalde advertentie, waardoor het algoritme soortgelijke advertenties daarna richt op mensen met dezelfde leeftijd of gender. Daardoor kunnen bijvoorbeeld vacatures of advertenties voor woningen voor bepaalde groepen minder zichtbaar zijn. Ook kan het zo zijn dat gebruikers schadelijke of provocerende content te zien krijgen, omdat een algoritme heeft aangetoond dat mensen dan langer op sites blijven.
Keuzes moeten weloverwogen zijn, in plaats van gemanipuleerd.
Dat moet anders!
Bovenstaande problemen worden onvoldoende aangepakt in het Digital Services Act-voorstel. Panoptykon doet in dat kader aanbevelingen, waarvan we er een paar willen uitlichten.
Door het bedrijfsmodel van online platformen wordt gebruikgemaakt van persoonlijke data voor recommendations (welke video’s/berichten worden aangeraden nadat je een bericht of video hebt bekeken) en advertenties. Het is nu de standaard dat platformen ongevraagd gebruikmaken van jouw persoonlijke data. Wij zijn het eens met het voorstel van Panoptykon dat de standaard juist moet worden dat platformen geen gebruik maken van persoonlijke data. Platformen zouden nooit ongevraagd persoonlijke data mogen gebruiken.
Wij vinden het belangrijk dat jij kiest door wie en op basis waarvan jouw online omgeving wordt vormgegeven. Momenteel is het zo dat wanneer jij een video kijkt op YouTube, een algoritme van YouTube bepaalt welke video je daarna te zien krijgt. Het doel van dat algoritme is dat je zo lang mogelijk op YouTube blijft. Wij willen dat platformgebruikers de keuze krijgen om een recommender system van andere partijen te gebruiken. In de Digital Services Act zullen grote online platformen moeten worden verplicht om te faciliteren dat alternatieve partijen een recommender system op het platform kunnen aanbieden.
Ook moeten platformgebruikers worden beschermd tegen dark patterns. Dark patterns zijn trucjes van platformen om jou te laten doen wat zij willen. Een voorbeeld hiervan is wanneer een platform je aandacht probeert af te leiden van het één door het ander te promoten: de ‘ja’-knop groter en kleurrijker in beeld brengen dan de ‘nee’-knop. Panoptykon pleit voor een verbod op dark patterns, daar sluiten wij ons bij aan. Keuzes moeten weloverwogen zijn, in plaats van gemanipuleerd.