Niet computers maar mensen discrimineren
Mensen discrimineren. Soms bewust, soms onbewust. Dat is niet opeens anders als ze computersystemen bouwen, code tikken of algoritmen schrijven. Dat gebeurt ook door iets juist niet te bouwen.
De bezoekers van Europa's belangrijkste conferentie op het gebied van privacy hebben een grote verantwoordelijkheid. Hun ideeen en oplossingen is mede-bepalend voor hoe onze maatschappij er uit gaat zien.
Het gebruik van historische informatie om de inzet van politieagenten te sturen, kan best slim zijn. Op die manier kunnen de agenten ingezet worden op de zogenaamde "hot spots". Lekker efficient. Maar dat betekent ook dat je in die wijken vrijwel zeker meer arrestaties gaat zien dan in andere
wijken. En als dat de enige informatie is waarop we de inzet van de politie baseren, dan is dat een zichzelf versterkend probleem. Zo'n wijk wordt daarmee gestigmatiseerd en op een achtergrond gezet.
De CPDP-conferentie gaat, zoals de afgekorte naam al zegt, over computers, privacy en de bescherming van persoonsgegevens. Maar wie iets beter luistert ziet bijvoorbeeld dat het debat "Feminist perspective on privacy" vooral over sociale problemen gaat. Natuurlijk is er op internet ook veel
ongelijkheid en wordt dat misschien meer of minder versterkt door technologie. Maar veelal zijn die problemen niet wezenlijk anders dan in de analoge wereld. Dat is met code misschien te sturen, maar niet te fixen.
Dat laatste maakt ook elk van de bezoekers van de conferentie verantwoordelijk. In Zweden blijkt er onrust te zijn ontstaan over een register van mishandelde vrouwen dat door de politie wordt bijgehouden. Het is natuurlijk maar de vraag of je de slachtoffers wilt indexeren, maar het helpt ook
niet als agenten allerlei vervelende commentaren erbij zetten. Dat is een probleem. Een van de geopperde oplossingen: computersystemen van de overheid moeten zo zijn opgezet dat ambtenaren, bij het gebruik ervan, gedwongen worden tot kritische zelfreflectie. En dat is bij uitstek een onderwerp
voor deze conferentie.