Het begon met brieven. Strakke formulieren, juridisch taalgebruik, koude conclusies. “U moet duizenden euro’s terugbetalen.” Geen gesprek, geen nuance, geen menselijk gezicht. Voor tienduizenden ouders veranderde een administratieve fout in een persoonlijke ramp.
De toeslagenaffaire was geen klassiek schandaal van corrupte ambtenaren of politieke achterkamertjes. Het was iets subtielers, en misschien daarom gevaarlijker: een systeem dat faalde terwijl iedereen dacht dat het werkte.
Achter de schermen draaiden algoritmen. Ze filterden, rangschikten, selecteerden. Wat bedoeld was als efficiëntie-instrument, werd een vergrootglas voor wantrouwen. Nationaliteit, dubbele paspoorten, kleine administratieve afwijkingen: alles kon een risicosignaal worden.
Technologie was niet de boosdoener. Maar ze werd wél de stille versneller.
___
De belofte van data, de schaduw van controle.
Overheden gebruiken data al decennia. Maar rond 2010 begon een nieuwe fase: risicoprofielen, voorspellende modellen, geautomatiseerde besluitvorming. Het idee was logisch. Als je fraude sneller herkent, bespaar je geld. Als je patronen ziet, voorkom je misbruik. Als algoritmen helpen, kunnen ambtenaren efficiënter werken. Maar algoritmen zijn geen neutrale wezens. Ze leren van historische data. En historische data dragen menselijke vooroordelen in zich. Wat gisteren als “risicovol” gold, wordt morgen automatisch herhaald.
Zo ontstaat geen objectieve blik, maar een digitale echo van oud wantrouwen. Zo kon de toeslagenaffaire ontstaan.
——
De Belastingdienst werkte met risicomodellen om mogelijke fraudeurs te identificeren. Daarbij werden bepaalde kenmerken als dubbele nationaliteit, onregelmatige inkomsten, complexe gezinssituaties of kleine administratieve fouten als verdacht aangemerkt. Wie eenmaal als “hoog risico” werd aangemerkt, kwam in een streng regime terecht; toeslagen werden stopgezet, bedragen moesten worden terugbetaald en bezwaarprocedures werden ontmoedigd. Het systeem kende weinig grijs. Je was compliant, of verdacht. En precies daar ging het mis. Data was verwoestend. Voor ouders betekende dit schulden die opliepen tot tienduizenden euro’s, soms verlies van huis en werk, psychische problemen of zelfs gebroken gezinnen. Sommige kinderen werden uit huis geplaatst. Niet omdat ouders slecht waren, maar omdat ze financieel instortten door een administratief oordeel. Het algoritme zag cijfers. De ouders voelden de klap.
⸻
Waarom niemand op tijd ingreep
Het meest pijnlijke aspect van de affaire is misschien wel dat de signalen er waren. Journalisten, juristen, Kamerleden en ouders zelf waarschuwden al jaren. Maar het systeem was traag. De procedures waren complex. En de digitale processen waren grotendeels ondoorzichtig. Ambtenaren vertrouwden op de modellen. Politici vertrouwden op de ambtenaren. En burgers hadden weinig middelen om zich te verweren tegen een onzichtbare tegenstander. Zo werd technologie geen hulpmiddel, maar een muur.
⸻
Wat algoritmen wél goed kunnen
Het probleem is niet dat overheden data gebruiken. Integendeel. Algoritmen wanneer effectief ingezet kunnen wachttijden verkorten, fouten opsporen, capaciteit beter verdelen en beleidskeuzes onderbouwen.
In Estland bijvoorbeeld helpt digitale besluitvorming bij snelle en transparante overheidsdiensten. In Finland worden algoritmen ingezet om uitval in het onderwijs te voorspellen en te voorkomen. Het verschil zit niet in de techniek, maar in de ethische randvoorwaarden.
⸻
Transparantie: de sleutel tot vertrouwen
Een van de grootste problemen in Nederland was dat niemand precies wist hoe de risicomodellen werkten. Niet burgers. Soms zelfs ambtenaren niet.
Transparantie betekent; weten welke data worden gebruik, begrijpen hoe beslissingen tot stand komen en kunnen uitleggen waarom iemand wordt geselecteerd. Zonder inzicht ontstaat macht zonder verantwoording.
De Europese AI Act, die in 2024 werd aangenomen, verplicht overheden voortaan om uitleg te geven bij geautomatiseerde besluitvorming. Dat is een belangrijke stap. Maar wetgeving alleen is niet genoeg. Cultuur telt ook.
____
Data zonder discriminatie
Technologie mag ondersteunen, maar niet domineren. Elke geautomatiseerde beslissing moet; herzienbaar zijn, uitlegbaar zijn en door menselijke tussenkomst toetsbaar blijven. Geen “computer says no”-momenten zonder gesprek. Geen zwarte dozen zonder opening. Geen beleid zonder empathie.
In Canada wordt bij sociale beslissingen altijd een menselijke beoordelaar ingezet naast algoritmen. Niet als formaliteit, maar als tegengewicht.
De toeslagenaffaire liet zien hoe makkelijk data kunnen leiden tot indirecte discriminatie. Niet omdat iemand bewust discrimineerde, maar omdat het systeem correlaties als oorzaken ging behandelen. Een dubbele nationaliteit werd een risicosignaal. Niet vanwege gedrag, maar vanwege statistische patronen. Dat is geen objectiviteit. Dat is statistisch bijgeloof.
Moderne algoritmen kunnen wél eerlijker worden ingericht; door bias-tests (op externe factoren), door diverse trainingsdata, door ethische commissies en door periodieke audits Techniek kan leren. Maar alleen als wij haar dat leren.
⸻
De rol van de burger: van object naar partner
Burgers werden in de toeslagenaffaire behandeld als risico-objecten. Maar in een democratie zijn ze partners in beleid. Als partner kun je meedenken over de gezamenlijke verplichting. De burger leeft en maakt gebruikt van de sociale constructen van de maatschappij. De ambtenaar ziet toe op die constructen. Samen onderhouden zij verantwoordelijkheden. Dat vraagt om; betere bezwaarprocedures, heldere communicatie, digitale inzage in eigen dossiers en laagdrempelige hulp
In Zweden kan elke burger online zien welke gegevens de overheid over hem gebruikt. Dat vergroot vertrouwen én controle.
Transparantie is geen last. Het is een investering. Van burgers, vooraleer van bestuurders: digitale ethiek als bestuursvaardigheid. Besturen in het AI-tijdperk vraagt nieuwe vaardigheden; data-geletterdheid bij politici, ethiektraining voor ambtenaren, onafhankelijke toezichthouders en publiek debat over technologie. Besluitvorming wordt steeds technischer. Maar democratie moet begrijpelijk blijven.
⸻
Lessons learned, lessons to learn
Sinds de affaire zijn stappen gezet:
- De Autoriteit Persoonsgegevens kreeg meer bevoegdheden;
- Algoritmeregisters werden ingevoerd
- De menselijke maat werd expliciet beleidsthema
- Gedupeerden werden gecompenseerd
Maar herstel kost tijd. Vertrouwen groeit langzaam. En fouten laten diepe sporen na. Oftewel: technologie vraagt volwassen bestuur
De toeslagenaffaire was geen technologische mislukking, maar een bestuurlijke. Niet de algoritmen faalden. De randvoorwaarden faalden. Technologie kan efficiënt zijn, maar zonder transparantie, zonder menselijke tussenkomst is data over-objectief en koud. Data kan sturen, maar zonder verantwoording wordt het gevaarlijk. Een slimme overheid is niet per se een digitale overheid. Het is een rechtvaardige overheid die technologie wijs gebruikt. Een bestuurder die; alle overheidsalgoritmen publiek inzichtelijk maakt, die menselijke toetsing bij risicobesluiten verplicht, die onafhankelijke ethische audits introduceert, die burgerinzage in data versterkt en investeert in digitale geletterdheid.


