Terug naar blog Visie

Wanneer AI in een gemeente géén goed idee is

Wij verdienen ons brood met het bouwen van AI-oplossingen, maar er zijn situaties waarin wij u afraden om AI in te zetten. Een eerlijke checklist uit de praktijk.

Illustratie van een weegschaal tussen AI en mens

Een AI-leverancier die zegt "soms moet u dit niet doen" is misschien een vreemd uitgangspunt voor een blog. Maar het sluit precies aan bij de manier waarop wij willen samenwerken: alleen iets bouwen als het ook echt waarde gaat opleveren. Wij hebben in de afgelopen jaren een aantal patronen leren herkennen waarbij het antwoord op de vraag "kunnen wij hier AI op inzetten?" eerlijk gezegd "doe het niet" is. In dit artikel delen wij die patronen.

1. Het probleem speelt te weinig om de investering te rechtvaardigen

Een AI-oplossing bouwen, in productie nemen en bijhouden kost tijd, geld en aandacht. Niet alleen aan onze kant, maar ook aan de kant van uw organisatie: er gaat tijd zitten in samenwerken met inhoudsdeskundigen, in het opzetten van de juiste data, en in het inwerken van medewerkers.

Als het probleem dat u wilt oplossen tien keer per maand voorkomt, dan haalt de oplossing die investering bijna nooit terug. In dat geval is een goede instructie aan medewerkers, of een eenvoudig formulier op de website, vaak zinvoller dan een AI-toepassing. Wij rekenen voor elk traject grof uit hoeveel tijd of fouten een oplossing per maand zou besparen, en als die optelsom te mager is, zeggen wij dat eerlijk.

2. De data is er niet, of niet op orde

Een AI-assistent die put uit uw eigen kennisbronnen is alleen zo goed als die kennisbronnen. Als de informatie waar de assistent op moet steunen verouderd, tegenstrijdig of versnipperd is, dan herhaalt de oplossing die problemen alleen maar in een snellere vorm.

Wij vragen daarom altijd door op de staat van de bronnen voordat wij beginnen. Soms is de eerste eerlijke stap niet "wij bouwen een AI-assistent", maar "wij ondersteunen u bij het opschonen en structureren van uw kennisbronnen". Pas als die fundering klopt, heeft een AI-laag erbovenop zin.

3. Het werk vraagt om menselijk oordeel met persoonlijke afweging

Sommige beslissingen horen bij mensen. Een gesprek met een ouder die net te horen heeft gekregen dat een hulpaanvraag is afgewezen, of het beoordelen van een complexe schuldsituatie waarin meerdere factoren spelen, dat is geen AI-werk. Niet omdat de techniek het niet zou kunnen voorzien van bouwstenen, maar omdat de beslissing zelf in handen van de medewerker hoort te blijven.

Wij vinden dat AI dit type werk hoogstens mag voorbereiden, bijvoorbeeld door relevante context op te zoeken voor de medewerker, maar nooit zelf de afweging moet nemen. Als uw vraag impliciet die laatste rol bij AI legt, dan adviseren wij van koers te veranderen.

4. De governance is nog niet duidelijk

AI in de publieke sector vraagt om duidelijkheid over wie eigenaar is, wie het mag controleren, hoe een burger tegen een uitkomst kan reclameren, en wat de fallback is als de oplossing er even uit ligt. Als dit soort vragen nog open staan binnen uw organisatie, is het verstandiger eerst die governance op te zetten dan om alvast te beginnen met bouwen.

Wij hebben verschillende keren gezien dat een AI-pilot organisatorisch vastloopt, niet omdat de techniek faalt maar omdat niemand mag beslissen of hij ingebed mag worden in het primaire proces. Dat is niet alleen verspilde inzet, het zet ook het vertrouwen in latere AI-trajecten op het spel.

5. De oplossing is bedoeld om mensen te vervangen, niet om ze te ondersteunen

Wij geloven oprecht dat AI in de publieke sector pas waarde heeft als het medewerkers ondersteunt en niet vervangt. Als de business case van een traject draait om "wij willen drie FTE besparen", dan zijn wij niet de juiste partner. Onze ervaring is dat dit soort trajecten in de publieke sector ook organisatorisch vrijwel altijd vastlopen, omdat de medewerkers die de oplossing zouden moeten omarmen niet meewerken aan iets dat hun eigen rol overbodig wil maken.

De trajecten waarin AI wel succesvol landt, zijn die waarin medewerkers tijd terugkrijgen voor het werk dat er echt toe doet. Dat zijn de trajecten waar wij ons voor inzetten.

Wat dan wel

Als wij u afraden om AI in te zetten, betekent dat niet dat u stilstaat. Vaak adviseren wij dan een veel kleinere stap: een betere zoekfunctie op het intranet, een eenmalige opschoning van een kennisbank, een korte training voor medewerkers in het slim gebruiken van bestaande tools zoals Microsoft Copilot. Of soms gewoon: niets doen, want het probleem is in de huidige vorm prima werkbaar.

Een eerlijk advies kost ons soms een opdracht. Maar het levert vrijwel altijd een betere relatie op met onze klanten, en het zorgt dat de AI-trajecten die wij wel doen ook echt slagen. Liever drie projecten die werken dan tien die ergens halverwege stilvallen.

Twijfel of AI hier het juiste antwoord is?

Wij denken graag een halfuur met u mee. Soms komt daar een traject uit, soms juist een goed argument om iets anders te kiezen.