Algoritmes mogen geen architect zijn van onze feed
- 30 september 2021
- Ricardo Gomez Angel
Vorige week publiceerde het Poolse Panoptykon Foundation een brief aan IMCO, de parlementscommissie die in het Europees Parlement verantwoordelijk is voor de Digital Services Act (hierna: DSA). Wij ondertekenden de brief en staan achter de boodschap van Panoptykon: in de DSA moet effectieve regelgevingLees hier waarom de wetsvoorstellen ambitie missen! komen over het gebruik van algoritmes door online platformen.
Algoritmes ontnemen keuzevrijheid en werken discriminatie in de hand
Advertenties op platformen worden verspreid op basis van data die achter jouw rug om door online platformen wordt verzameld. Platformen ontnemen jou de keuzevrijheid om persoonlijke data met hen te delen, door deze persoonlijke data te achterhalen aan de hand van jouw online gedrag. Uit dat online gedrag kan bijvoorbeeld blijken wat jouw religie of seksualiteit is, zonder dat jij dat hebt aangegeven. Op basis van dat soort verzamelde kenmerken wordt door een algoritme jouw online omgeving op het platform ingericht met als doel dat je zo lang mogelijk op de site blijft en op zo veel mogelijk advertenties klikt.Volg onze korte cursus manipulatie!
Die algoritmes kunnen onbedoeld leiden tot discriminatie op basis van gender, huidskleur of leeftijd. Het is bijvoorbeeld mogelijk dat mensen van een bepaalde leeftijdsgroep of gender in het verleden vaak doorklikte op een bepaalde advertentie, waardoor het algoritme soortgelijke advertenties daarna richt op mensen met dezelfde leeftijd of gender. Daardoor kunnen bijvoorbeeld vacatures of advertenties voor woningen voor bepaalde groepen minder zichtbaar zijn. Ook kan het zo zijn dat gebruikers schadelijke of provocerende content te zien krijgen, omdat een algoritme heeft aangetoond dat mensen dan langer op sites blijven.
Keuzes moeten weloverwogen zijn, in plaats van gemanipuleerd.
Dat moet anders!
Bovenstaande problemen worden onvoldoende aangepakt in het Digital Services Act-voorstel. Panoptykon doet in dat kader aanbevelingen, waarvan we er een paar willen uitlichten.Lees hier welke vier maatregelen de dominantie van grote platformen kunnen ondermijnen!
Door het bedrijfsmodel van online platformen wordt gebruikgemaakt van persoonlijke data voor recommendations (welke video's/berichten worden aangeraden nadat je een bericht of video hebt bekeken) en advertenties. Het is nu de standaard dat platformen ongevraagd gebruikmaken van jouw persoonlijke data. Wij zijn het eens met het voorstel van Panoptykon dat de standaard juist moet worden dat platformen geen gebruik maken van persoonlijke data. Platformen zouden nooit ongevraagd persoonlijke data mogen gebruiken.
Wij vinden het belangrijk dat jij kiest door wie en op basis waarvan jouw online omgeving wordt vormgegeven. Momenteel is het zo dat wanneer jij een video kijkt op YouTube, een algoritme van YouTube bepaalt welke video je daarna te zien krijgt. Het doel van dat algoritme is dat je zo lang mogelijk op YouTube blijft. Wij willen dat platformgebruikers de keuze krijgen om een recommender system van andere partijen te gebruiken. In de Digital Services Act zullen grote online platformen moeten worden verplicht om te faciliteren dat alternatieve partijen een recommender system op het platform kunnen aanbieden.
Ook moeten platformgebruikers worden beschermd tegen dark patterns. Dark patterns zijn trucjes van platformen om jou te laten doen wat zij willen. Een voorbeeld hiervan is wanneer een platform je aandacht probeert af te leiden van het één door het ander te promoten: de 'ja'-knop groter en kleurrijker in beeld brengen dan de 'nee'-knop. Panoptykon pleit voor een verbod op dark patterns, daar sluiten wij ons bij aan. Keuzes moeten weloverwogen zijn, in plaats van gemanipuleerd.