Robin. Ellen. Guus. Mai. En natuurlijk Wim, de altijd hulpvaardige Woo-collega. Wie AI-tools bij de overheid bekijkt, ziet dat ze opvallend vaak een menselijke naam krijgen. Hoe ‘onmenselijker’ de tools, hoe menselijker we die maken.
Daar zit meteen de spanning. Overheden willen dichtbij, begrijpelijk en betrouwbaar communiceren, maar gebruiken tegelijkertijd steeds vaker AI om sneller en consistenter te werken. Dat levert tijdswinst en betere teksten op, maar schuurt ook: het gesprek met de overheid loopt ineens via een voorspelmachine.
Die spanning is geen experiment meer. Uit onderzoek van TNO en het ministerie van Binnenlandse Zaken blijkt dat er inmiddels 81 generatieve AI-toepassingen binnen de overheid zijn. 42 procent daarvan zit bij gemeenten, vooral in chatbots en assistenten voor burgercontact. Bijna de helft wordt al structureel gebruikt. AI is daarmee geen pilot meer, maar een nieuw communicatiekanaal, vaak met een eigen naam alsof het een collega is.
Co: de stille schrijver
De meest voorkomende toepassing is intern. Denk aan ‘Co’, een naam ontleend aan Microsoft 365 Copilot, zoals gebruikt in De Bilt. Deze AI-assistent helpt ambtenaren bij schrijven, samenvatten en structureren. Een simpele prompt als ‘maak dit begrijpelijk’ volstaat om ambtelijke taal om te zetten naar B1-niveau.
Voor inwoners is het effect indirect: duidelijkere brieven en snellere antwoorden. De adoptie is relatief eenvoudig, omdat AI wordt toegevoegd aan bestaande tools. Wel blijft menselijke eindredactie verplicht.
Adam: de AI-wasstraat
Amsterdam kiest een andere route met ChatAmsterdam, een interne AI-assistent die draait op GPT-4 maar model-agnostisch is ingericht. Daardoor kan de gemeente makkelijker wisselen van technologie.
Het gebruik is intensief: in een half jaar tijd werden meer dan 25.000 prompts ingevoerd door 840 medewerkers. Bijna de helft daarvan ging over tekstverwerking. Daarnaast wordt de tool gebruikt voor informatievergaring, analyse en ideeënontwikkeling.
De kracht zit in de ‘AI-wasstraat’: een ambtenaar gooit een stroef bericht erin en krijgt een begrijpelijke versie terug. Daarmee wordt een oud probleem aangepakt: begrijpelijke overheidstaal.
Wim: AI in de op en overheid
De Wet open overheid (Woo) is berucht traag: slechts 33 procent van de verzoeken wordt op tijd afgehandeld. AI moet daar verlichting brengen.
Gemeenten gebruiken AI om documenten te anonimiseren. Daarnaast verschijnen er nieuwe tools. In Coevorden helpt een chatbot inwoners bij het doorzoeken van gepubliceerde Woo-documenten.
Tijdens de hackathon Terminal WOO ontstonden nog slimmere toepassingen. Zo helpt een chatbot burgers hun vraag te verfijnen voordat ze een Woo-verzoek indienen. Dat voorkomt onnodige aanvragen.
En dan is er Wim: een digitale Woo-informatiemanager die ambtenaren helpt informatie te verzamelen, collega’s te vinden en antwoorden samen te stellen. Dat is AI midden in het hart van overheidscommunicatie.
Robin, Ellen en Gem: de 24/7-collega
Het meest zichtbaar zijn de chatbots op gemeentelijke websites. Ellen (Gennep) en Robin (Wijchen/Druten) beantwoorden vragen van inwoners, 24 uur per dag. In toenemende mate voegen gemeenten daar ook eigen AI-assistenten aan toe, zoals Gem: een systeem dat vragen van inwoners interpreteert en combineert met gemeentelijke informatie om tot een persoonlijker antwoord te komen.
Voor gemeenten betekent dit minder druk op de klantenservice en beter inzicht in wat er leeft. Voor inwoners: snel antwoord, zonder wachttijd.
Tegelijk zijn de grenzen duidelijk. Robin legt expliciet uit hoe data wordt verwerkt en wanneer gesprekken stoppen. Het is geen gezellig praatmaatje, maar een gecontroleerd kanaal.
Voor communicatieprofessionals betekent dit ook iets anders: content moet op orde zijn. Een chatbot kan alleen antwoorden op basis van bestaande informatie. Slechte content wordt dus direct zichtbaar.
Peter: het risico van AI
AI is niet zonder risico. Generatieve modellen hebben de neiging altijd een antwoord te geven, ook als dat niet klopt. Dat leidt tot zogeheten hallucinaties.
Het voorbeeld van NRC-journalist Peter Vandermeersch, die niet-bestaande citaten gebruikte, laat zien hoe overtuigend die fouten kunnen zijn en hoe snel gezag kan eroderen als AI-informatie klakkeloos wordt overgenomen zonder verificatie.
In de publieke sector kan dat grote gevolgen hebben. De chatbot MyCity in New York gaf ondernemers zelfs advies dat inging tegen de wet. Dat is het nachtmerriescenario: dienstverlening opschalen en tegelijkertijd je reputatierisico vergroten.
Daarom geldt vrijwel overal het human-in-the-loop-principe: AI-output wordt altijd gecontroleerd door een mens. Ook privacy wordt bewaakt, bijvoorbeeld met waarschuwingen als er gevoelige informatie in prompts wordt gebruikt, zoals namen of andere persoonsinformatie.
Altijd mensenwerk
Voor communicatieprofessionals is de les helder: je hoeft geen techspecialist te zijn, maar wel te begrijpen wat AI doet. Het is een nieuwe schrijver: snel, overtuigend en soms gevaarlijk zeker van fouten.
De vraag is niet of je AI gebruikt, maar hoe. Richt je op de taak, niet op de tool. Zorg dat je bronnen op orde zijn, want die bepalen de kwaliteit. En organiseer menselijke controle als vast onderdeel van het proces.
Geef AI gerust een naam. Maar de verantwoordelijkheid blijft altijd mensenwerk.

Reacties:
Om een reactie achter te laten is een account vereist.
Inloggen Abonneer nu