Waarom IT-projecten bij de overheid zo vaak mislukken

(en waarom dit een cruciale les is voor elke AI adoption journey)

Opnieuw wordt bij de overheid de stekker uit een groot IT-project getrokken. Na eerdere stopzettingen bij justitie en politie blijkt nu ook in het onderwijs een ambitieus digitaliseringstraject onvoldoende op te leveren om verder publiek te verantwoorden. Het patroon is ondertussen herkenbaar. Wat begint met hoge verwachtingen en strategische ambities, eindigt in teleurstelling, bijsturing of volledige stopzetting.

De publieke reflectie laat zich raden. Er wordt gewezen naar slecht projectmanagement, verkeerde leveranciers, onvoldoende sturing door de opdrachtgever, of — sneller dan men lief is — naar vriendjespolitiek en belangenvermenging. Elk van deze verklaringen kan in individuele dossiers een rol spelen. Maar wanneer dit soort situaties zich blijft herhalen over beleidsdomeinen heen, wordt het steeds moeilijker om ze als louter incidenten te blijven beschouwen.

Als ongeveer één op vijf IT-projecten bij de overheid zijn doelstellingen niet haalt of voortijdig wordt stopgezet, dan is er waarschijnlijk iets structurelers aan de hand. Niet een probleem van personen of partijen, maar van hoe we digitalisering begrijpen en organiseren.

Die vaststelling wordt nog relevanter wanneer we de blik verruimen. Ook bij AI-projecten — zowel in de publieke sector als in bedrijven — blijven de cijfers hardnekkig. Afhankelijk van het onderzoeksrapport variëren ze, maar de teneur is opvallend consistent: tot 70 à 80 procent van de AI-projecten geraakt nooit voorbij de pilotfase of levert niet de verwachte impact op. De parallel met klassieke IT-projecten is te groot om toeval te zijn.

Wat is hier werkelijk aan de hand? In deze blog wil ik niet alleen de vinger op de wonde leggen, maar ook beargumenteren waarom een meer geïntegreerde adoption journey cruciaal is.

AI als vergrootglas voor een oud en dieper probleem

Wat opvalt in veel falende IT-projecten bij de overheid, is dat de technologie op zich zelden het grootste probleem vormt. Systemen worden technisch correct opgeleverd, datamodellen zijn meestal goed doordacht en leveranciers beschikken over de nodige expertise. Toch blijft de vraag hangen waarom zulke projecten uiteindelijk “te weinig opleveren”.

Het antwoord ligt meestal niet in wat het systeem kan, maar in hoe het systeem landt. Vaak wordt daarbij geen rekening gehouden met de ‘human factor’. IT-projecten worden nog vaak opgevat als neutrale instrumenten die processen efficiënter maken of informatie toegankelijker organiseren. In werkelijkheid grijpen ze in op hoe beslissingen tot stand komen, wie verantwoordelijkheid draagt en hoe professionals hun rol begrijpen.

In sectoren zoals justitie, politie en onderwijs is dat bijzonder zichtbaar. Daar gaat digitalisering niet alleen over efficiëntie, maar ook over oordeelsvorming, discretionaire ruimte en professionele autonomie. Wanneer technologie deze dimensies onvoldoende respecteert of expliciteert, ontstaat een kloof tussen het systeem en de mensen die ermee moeten werken.

Artificiële intelligentie maakt dit spanningsveld nog scherper. AI is geen klassieke IT die ondersteunt; ze structureert beslissingen, formaliseert normen en maakt impliciete keuzes expliciet. Wat vroeger in overleg, ervaring of context werd afgewogen, wordt nu vertaald naar regels, modellen en scores. Daardoor worden normatieve keuzes niet alleen genomen, maar ook vastgezet.

Het is dan ook geen verrassing dat AI-projecten vaak stranden op vertrouwen en adoptie. Niet omdat het model fout is, maar vaak ook omdat niemand helder kan uitleggen waarom het systeem tot bepaalde uitkomsten komt, welke waarden erin zijn ingebouwd en wanneer menselijke tussenkomst doorslaggevend blijft. AI faalt waar betekenis en verantwoordelijkheid niet expliciet zijn georganiseerd.

Implementatie is geen adoptie

Een terugkerende denkfout in zowel overheids-IT als AI-projecten is dat succesvolle implementatie automatisch leidt tot goed gebruik en positieve impact. Er is een roadmap, een planning, een aanbesteding en een go-live-moment. Daarna zou de meerwaarde zich vanzelf moeten bewijzen.

Maar digitalisering — en zeker AI — werkt niet zo. Technologie verandert niet alleen processen, maar ook verwachtingen, verantwoordelijkheden en machtsverhoudingen. Wanneer die veranderingen niet expliciet worden begeleid, ontstaat geen open weerstand, maar iets subtielers: minimale naleving, omzeiling, of puur formeel gebruik zonder echte integratie in het werk.

In onderwijscontexten zien we dat bijzonder scherp. Digitale systemen kunnen administratief perfect functioneren en toch als ballast worden ervaren door leerkrachten, directies of ondersteunend personeel. Niet omdat men tegen technologie is, maar omdat het systeem onvoldoende aansluit bij wat zij als goed onderwijs, professioneel handelen of pedagogische kwaliteit beschouwen.

Hier wordt duidelijk waarom zoveel projecten “te weinig opleveren”. Niet omdat ze niets doen, maar omdat ze geen betekenisvolle aansluiting vinden bij de waarden en praktijken van hun gebruikers.

Ethiek als value alignment, niet als sluitstuk

In dat licht krijgt ethiek een heel andere rol dan vaak wordt aangenomen. Ethiek is geen abstract normenkader dat achteraf wordt toegepast, en zeker geen rem op innovatie. In succesvolle trajecten functioneert ethiek als value alignment: het expliciet maken van wat verschillende stakeholders belangrijk vinden en hoe die waarden richting geven aan ontwerp, gebruik en governance van technologie.

Wanneer dat gesprek niet gevoerd wordt, worden waarden stilzwijgend verondersteld. Ze sluipen het systeem binnen via aannames, datakeuzes en ontwerpbeslissingen, zonder dat iemand er nog vat op heeft. Het resultaat is technologie die juridisch verdedigbaar is, maar moreel en organisatorisch schuurt.

Het meenemen van stakeholders kan hierin een cruciale rol spelen. Niet als communicatie-instrument om draagvlak te “creëren”, maar als ontwerpruimte waarin waarden en praktijken zichtbaar en bespreekbaar worden. Wat hebben we nodig als professional? Welke impact zal het nieuwe systeem hebben? Door professionals, eindgebruikers, burgers of leerlingen actief te betrekken, ontstaat niet alleen meer vertrouwen, maar ook betere technologie. Innovatie wordt rijker wanneer ze gevoed wordt door uiteenlopende perspectieven.

Van falende projecten naar een geïntegreerde AI adoption journey

Wat veel mislukte projecten gemeen hebben, is een gefragmenteerde aanpak. Ethiek, legal, change, technologie en economie worden behandeld als aparte sporen, elk met hun eigen timing en logica. Zolang alles “afgevinkt” kan worden, lijkt het project op schema. Maar in de praktijk valt het geheel uit elkaar.

Een volwassen AI adoption journey vraagt een fundamenteel andere benadering. Niet sequentieel, maar holistisch. Niet gericht op optimalisatie van één dimensie, maar op samenhang. Ethiek zorgt voor value alignment en legitimiteit, legal voor comformiteit aan de wetgeving, change voor begeleiding van professionele verschuivingen, technologie voor robuuste en uitlegbare systemen, en economie voor duurzame waardecreatie op lange termijn.

Zonder die samenhang blijft AI ofwel steken in pilots, ofwel doorschieten in oplossingen die technisch indrukwekkend zijn maar maatschappelijk of organisatorisch onhoudbaar blijken.

Conclusie: toeval is geen verklaring meer

Het herhaaldelijk stopzetten van IT-projecten bij de overheid is dus geen reeks ongelukkige toevalligheden. Het is een structureel signaal dat we technologie blijven benaderen alsof ze neutraal is, terwijl ze in werkelijkheid diep normerend werkt.

De parallel met AI-projecten is dan ook geen toeval. Wat vandaag zichtbaar misloopt in overheids-IT, kondigt aan wat morgen ook in bedrijven zal spelen wanneer AI dieper ingrijpt in besluitvorming, governance en professionele autonomie.

De kernvraag is dus niet waarom dit of dat project opnieuw werd stopgezet, maar waarom we blijven investeren in technologie zonder expliciet te investeren in waarde-afstemming, stakeholderdialoog en adoptie.

Daar begint geen volgend project, maar een echte AI adoption journey.

Enkele aandachtspunten voor organisaties

  • Vertrek bij IT- en AI-projecten niet van technologie, maar van expliciete value alignment met stakeholders.
  • Gebruik stakeholderberaden als ontwerpruimte om adoptie, vertrouwen en innovatie te versterken.
  • Ontwikkel ethiek, legal, change, technologie en economie vanaf het begin samen, niet in aparte silo’s.
  • Behandel AI niet als een project met een einddatum, maar als een leerproces dat bijsturing vraagt.
  • Meet succes niet alleen in efficiëntie of kostenbesparing, maar ook in gebruik, vertrouwen en ervaren legitimiteit.

Plaats een reactie