Staying real, staying with the trouble
- ghebreab
- Dec 17, 2025
- 9 min read
Updated: Dec 18, 2025
Keynote lezing Eindejaarsconferentie Kenniscentrum Ongelijkheid, 9 december 2025
Er schuurt iets in de stad
Tussen overheid en burger
Tussen overheid en technologie
En tussen burger en technologie
Dat gevoel van schuren is de afgelopen jaren steeds sterker geworden - bij mij persoonlijk, maar ook binnen mijn groep SIAS en in het Civic AI Lab. In ons onderzoek, ons onderwijs en onze maatschappelijke projecten merken we steeds vaker dat er iets wringt in de samenleving, vooral wanneer het gaat om AI technologie. We hebben geprobeerd dat te begrijpen, en langzaam krijgen we scherper waar en hoe het schuurt.
Daar wil ik het vandaag over hebben aan de hand van twee voorbeelden: een nationaal voorbeeld over het COA en de matching van statushouders met gemeenten, en een lokaal voorbeeld over OSVO en de matching van leerlingen met middelbare scholen.
Het Civic AI Lab werd precies vijf jaar geleden - op 10 december 2020 – gelanceerd als een samenwerking tussen de UvA, de VU, de Gemeente Amsterdam en het Ministerie van Binnenlandse Zaken. Het doel: overheden ondersteunen bij het ontwikkelen van AI die ongelijkheid tegengaat en gelijke kansen vergroot in domeinen als onderwijs, gezondheidszorg, welzijn, mobiliteit.
Het lab startte met een lange-termijnvisie: de eerste vijf jaar focussen op AI technology for people - AI die instituties ontwikkelen voor burgers; de vijf jaar daarna op AI technology with people - AI samen met instituties en burgers ontwikkelen; en uiteindelijk op AI technology by people - burgers die zelf AI ontwikkelen om hun sociaal-economische positie te versterken.
De transitie naar die tweede fase schuurt. AI ontwikkelen samen met overheid én burgers - met name die in kwetsbare of achtergestelde gemeenschappen - blijkt nog een brug te ver. En dat ligt - in mijn ervaring - eerder aan een starre en niet-responsieve overheid dan aan de burger. Dat was al vroeg zichtbaar.
Nog vóór de oprichting van het Civic AI Lab werd het al duidelijk dat het - in de context van AI technologie - kon gaan schuren in de samenwerking tussen overheid en burger. In de aanloop naar het lab liet ik mij namelijk inspireren door het relocatie-algoritme van het Immigration Policy Lab - een samenwerking tussen Stanford University in de VS en ETH Zürich in Zwisterland. Voor mij was dat - destijds - een lichtend voorbeeld van hoe de overheid algoritmes kan inzetten in het belang van burgers, in dit geval statushouders, en gemeenten.
Het algoritme kon op basis van duizenden kenmerken van statushouders en mogelijke plaatsingsgebieden een goede match berekenen: bijvoorbeeld een statushouder met een bepaalde expertise koppelen aan een gemeente waar die expertise nodig is. Iets wat een COA-medewerker niet eenvoudig zou kunnen doen gezien tijdsdruk, gebrek aan expertise of politieke beperkingen.
Mijn voorstel aan de rijksoverheid was destijds: help mee een Civic AI Lab op te richten, zodat we lokaal relocatie- en andere algoritmes kunnen ontwikkelen, samen met statushouders en andere burgers, rekening houdend met de Nederlandse context en benodigdheden. En niet alleen om baankansen te vergroten, maar ook om onderwijs, welzijn en bredere participatie te versterken.
Ik merkte echter terughoudendheid. Ik vermoedde destijds dat men het idee te complex en te politiek gevoelig vond. EN dat samenwerken met statushouders niet vanzelfsprekend werd geacht. Het impliciete signaal leek te zijn: stel je voor dat de overheid samen met statushouders werkt aan het verbeteren van hun positie - dat zou de indruk kunnen wekken dat de overheid niet meer volledig in de lead is, en mogelijk zelfs een ‘aanzuigende werking’ creeert. Dat werd niet expliciet uitgesproken, maar was wel merkbaar.
Zeven jaar later is dat lichtend voorbeeld veranderd in een voorbeeld van hoe het niet moet. Het COA is namelijk destijds in zee gegaan met het Immigration Policy Lab en samen met hen een pilot begonnen hier in Nederland. Vorige week publiceerden Follow the Money en de Universiteit Utrecht hun systematische onderzoek naar deze pilot. Dat onderzoek deden ze op basis: van WOO-gegevens, technische documentatie van IPL, COA’s projectbeschrijving, de Data Protection- en AI-impactanalyse van Berenschot, en het auditrapport van Deloitte.
Uit het onderzoek komen verschillende institutionele logica’s naar voren: de bureaucratische logica van het COA, de technische logica van IPL en de auditlogica van onder andere Deloitte. Belangrijker nog is de conclusie dat “het algoritme de ongelijkheid tussen statushouders vergroot, maar ook tussen gemeenten, omdat sommige gemeenten vooral mensen zullen ontvangen met een grote afstand tot de arbeidsmarkt. In plaats van een win-winsituatie verliest iedereen hier: de statushouder, de gemeente en de gemeenschap.”
Kortom, een win-win was de belofte, maar het algoritme werkt contraproductief, discrimineert op basis van etniciteit en geslacht, en versterkt ongelijkheid. En dat ligt niet aan de statushouders, noch aan het algoritme zelf - een algoritme doet immers precies dat waarvoor het wordt geoptimaliseerd. De oorzaak ligt eerder bij de overheid, die niet goed weet om te gaan met AI, die AI vooral inzet als verlengstuk van bestaand beleid en bestaande praktijk, en die onvoldoende luistert naar kritische meedenkers - zoals ikzelf - of statushouders zelf.
Hoewel het relocatie-algoritme een inspiratie vormde, startte het Civic AI Lab in 2020 met ongelijkheid aanpakken in Amsterdam in domeinen als mobiliteit, welzijn gezondheid. Daarnaast wilden we ook een aanspreekpunt zijn voor overheden en burgers met vragen over AI. Zo ontwikkelden we een AI-onderwijsprogramma voor burgers en ambtenaren, adviseerden we nationale en internationale overheden en instituties, en inspireerden en ondersteunden we andere steden en universiteiten om hun eigen Civic AI Lab te starten - zoals recent in Rotterdam.
In het Civic AI Lab gingen zeven promovendi aan de slag met verschillende uses case, die samen met met de Gemeente Amsterdam waren geselecteerd. Een van onze use cases was het onderwijs. Promovendus Mayesha Tasnim richtte zich op het matchingsalgoritme waarmee Amsterdamse basisschoolleerlingen worden gekoppeld aan middelbare scholen. Een matching dus niet tussen statushouders en gemeenten, maar tussen leerlingen en scholen. Een veel minder - politiek of bestuurlijk - gevoelig matchingsprobleem zou je denken.
Het algoritme dat de stad Amsterdam sinds 2015 gebruikt, is afkomstig uit New York, en heeft twee aantrekkelijke kenmerken. Het is strategie-bestendig en dus niet te manipuleren. En daarnaast is het gebaseerd op een Nobelprijswinnend algoritme, iets wat herhaaldelijk wordt benadrukt door de stad en OSVO - de vereniging van schoolbesturen in het Amsterdamse voortgezet onderwijs, die verantwoordelijk is voor het algoritme.
Maar het algoritme is ontworpen voor een two-sided matching zoals dat in New York gebeurt waar niet alleen ouders/leerlingen maar ook scholen geven voorkeuren op. In Amsterdam leveren scholen geen voorkeurslijsten aan, waardoor het algoritme eigenlijk al bijvoorbaat niet passend was. Maar dat weerhield de stad er niet van om het toch in gebruik te nemen.
Het gevolg kennen velen hier: jaar na jaar klagen ouders en leerlingen over plaatsingen op scholen laag op de voorkeurslijst - in het verleden zelfs op plek 18. Daarom hebben de stad en OSVO door de jaren heen aanpassingen gedaan aan het algoritme, zelfs nog eind vorig jaar. Maar telkens zonder gewenst resultaat. De meest recente aanpassing, moest enkele maanden geleden zelfs weer teruggedraaid worden omdat het zo slecht uitpakte.
Dat het slecht zou uitpakken, had Maeysha Tasnim al voorspeld, op basis van uitgebreid onderzoek naar het algoritme en naar de Amsterdamse context. Ze sprak met OSVO, OCO, gemeenteambtenaren, ouders en leerlingen. Ze deed verschillende inzichten op waaronder dat ouders met een lagere sociaaleconomische status structurele nadelen ervaren, zoals moeite met het opstellen van volledige voorkeurslijsten of het navigeren door het systeem; Een ander inzicht: het gebrek aan transparantie door schoolbesturen over het algorhtme voedt ongelijkheid – of in ieder geval de perceptie ervan. Op basis van deze inzichten ontwikkelde ze een alternatief algoritme dat alle leerlingen een plaatsing biedt binnen hun top 5.
Maar het algoritme is niet strategie-bestendig. Er kan in theorie mee worden gemanipuleerd, en dat is een no-go voor gemeente en OSVO. Is dit erg? Nee, zo blijkt uit simulaties die Maeysha heeft uitgevoerd. Want alleen in extreme gevallen van manipulatie pakt het alternatieve algoritme slechter uit dan het huidige algoritme. Bijvoorbeeld wanneer vrijwel alle ouders en leerlingen die naar het VWO willen tegelijk besluiten om oneerlijk hun voorkeuren in te vullen. Dit zijn geen realistische scenarios. Bovendien blijkt dat ouders en leerlingen nauwelijks geneigd zijn te manipuleren wanneer de overheid en betrokken instituties transparan zijn over plaatsingskansen.
We hebben onze bevindingen herhaaldelijk gedeeld met OSVO en de gemeente, eerst intern, en later – toen we geen gehoor kregen - via de media. Wetend dat de stad zwaar hecht aan strategie-bestendigheid, en wetend dat het huidige algoritme door alle aanpassingen inmiddels óók niet meer strategie-bestendig is, schreven we een opiniestuk met de retorische vraag: hoe belangrijk is het theoretisch risico op manipulatie, vergeleken met de kans dat veel meer kinderen op een school terechtkomen die wel bij hun voorkeur past? De reactie van Moorman en OSVO op onze publicaties in media, en in wetenschappelijke tijdschriften was om het voorzichtig te zeggen weinig betekenisvol.
Deze twee voorbeelden zijn illustratief voor waar en hoe het schuurt.
Het schuurt tussen overheid en burger. De overheid werkt vaak vanuit een mensbeeld dat niet strookt met hoe burgers zichzelf zien: als iemand die je niet volledig kunt vertrouwen, die gemonitord moet worden, die mogelijk fraudeert of manipuleert, of die het systeem niet begrijpt. Dit mensbeeld maakt vertrouwen en gelijkwaardige samenwerking vrijwel onmogelijk.
Het schuurt tussen overheid en technologie. AI-systemen worden steeds vaker ingezet door de overheid zonder helder zicht op hoe ze werken of wat hun impact is. En wanneer dat inzicht er wél is, zien we dat AI-systemen regelmatig worden bijgestuurd om vooral instituties en markten te dienen, niet burgers en gemeenschappen.
En het schuurt ook tussen burger en technologie. Maar dan op een indirecte manier, want in mijn ervaring is dit schuren voor een groot deel het gevolg van de problematische relatie tussen overheid en burger én tussen overheid en technologie. Technologie wordt door veel mensen ervaren als een instrument dat overheden en industrie tegen hen inzet, en niet voor hen.
Dat zagen we ook duidelijk in het CommuniCity-project. Dat was een EU-project gestart vanuit het Civic AI Lab, met het doel om 100 pilot projecten te ontwikkelen die technologie dichter bij gemarginaliseerde gemeenschappen brengen. In theorie is dat gelukt: er zijn 100 pilots opgeleverd. In de praktijk gaven gemeenschappen echter aan: “Het draait bij instituties vooral om het testen en uitrollen van technologie, niet om het tegemoetkomen aan onze behoeften.”
Daarbij werd specifiek gewezen op overheidsbeleid dat als restrictief, extractief en soms zelfs repressief wordt ervaren. Termen die door overheden vaak als zwaar of onterecht worden afgedaan, maar die JUIST precies aangeven hoe het schuurt. Burgers en gemeenschappen - vooral de gemarginaliseerde - voelen zich niet gezien, niet gewaardeerd en niet erkend als gelijkwaardige partner.
Aan de basis van dit alles ligt – in mijn beleving - institutionele hoogmoed: een diepgeworteld geloof dat ‘wij’ beter weten wat goed is voor ‘hen’. En dat geldt niet alleen voor de overheid, maar net zo goed voor unversiteiten en andere instituties. In een tijd van razendsnelle politieke, demografische en technologische ontwikkelingen ondermijnt deze houding het wederzijds vertrouwen - in elkaar, in instituties én in technologie.
Tegelijkertijd is er ook heel voorzichtige emancipatoire beweging zichtbaar. Steeds meer burgergemeenschappen beginnen in te zien dat ze technologie kunnen inzetten om hun eigen positie te versterken. Zo hebben verschillende groepen - waaronder gemeenschappen die deelnamen aan het CommuniCity-project - expliciet aangegeven met het Civic AI Lab te willen samenwerken, maar dan zonder de overheid als partner.
Precies dat gaan we de komende jaren verder verkennen binnen het vorige week gehonoreerde NWO-project Urban Resilience through Responsive, Relational, Representative and Responsible Policymaking - Enabling Methods for Change. Onze rol daarin is: samenwerken met burgers in een ruimte waarin luisteren centraal staat en gelijkwaardigheid het uitgangspunt is. Passend bij de transitie die we vijf jaar geleden voor ogen hadden: van AI technology for people naar AI technology with people.
Aan de ene kant is dit precies de emancipatie die je wilt zien - burgers die zelf wegen zoeken om hun positie te versterken middels technologie. Aan de andere kant is het zorgelijk dat zij dat buiten de overheid om willen doen, juist omdat die overheid er voor hen zou moeten zijn. Dit zou een wake-up call moeten zijn voor overheden en instituties. Een kans om het anders te doen.
Collega hoogleraar Tom van der Meer formuleerde het onlangs treffend in de Volkskrant: " Het gedaalde vertrouwen is dan ook geen teken van een vertrouwenscrisis, maar van een betrouwbaarheidscrisis. Sterker nog, vanuit democratisch oogpunt is het gezond dat het vertrouwen daalt wanneer de politiek en de overheid niet functioneren. We zouden ons pas echt zorgen moeten maken als mensen ondanks alle schandalen, uitstelgedrag en geruzie vertrouwen bleven houden in de politiek.”
De grootste innovatie die we de komende jaren nodig hebben is niet technologisch van aard, maar een andere manier van werken binnen onze overheden en instituties. Niet de makkelijke weg: niet op nieuw het wiel opnieuw uitvinden, niet opnieuw de eerste, de beste of snelste willen zijn. Maar de moeilijke weg: luisteren naar waar het schuurt, institutionele nederigheid tonen, dicht bij de dagelijkse problemen van mensen blijven, en cooperatie boven competitie stellen. ‘Staying with the Trouble’, zoals Donna Haraway het noemt. Dán kan technologie een smeermiddel worden op de plekken waar het nu wringt, en kan het werkelijk bijdragen aan het vergroten van kansengelijkheid.
Comments