Data en ai
Podium

Gebruik geen tekstversimpelaars op websites, maak ze overbodig

Een bot of AI-venster geeft geen garantie op de juistheid van informatie. | Beeld: Shutterstock, AI-gegenereerd

In het discours over tekstbegrip geldt het idee dat laaggeletterde mensen gebaat zouden zijn met alleen ‘kort en simpel’. Dat gemeenten op hun websites experimenteren met tools voor toegankelijke taal is dan ook geen verrassing, stellen Jules Ernst en Wiep Hamstra. Maar ze raden AI-overlays die ingekorte, synthetische teksten voor overheidswebsites genereren heel stellig af. 

Geschreven teksten kunnen bijna altijd beter, maar dat kost tijd en moeite. De voorliefde voor schrijftools komt dus niet uit de lucht vallen. Ze voldoen ten eerste niet aan bestaande wet- en regelgeving voor digitale toegankelijkheid. Maar ook al voldoen ze wel: ze kunnen juistheid en vooral compleetheid van inhoud niet garanderen. Dat is problematisch, want de overheid moet altijd alle informatie voor iedereen aanbieden in toegankelijke taal. Hierover gelden al formele afspraken.

Het verstrekken van foutieve en incomplete informatie heeft gevolgen voor mensen. Met onvolledige teksten worden laaggeletterden juist geraakt, vaak mensen die moeite hebben met lezen en minder begrip hebben van overheidsdienstverlening. Wij zien daarom fundamentele problemen in AI-overlays (zie kader) vanwege de onethische kant van experimenteren op mensen in de echte wereld.

AI-overlay: een cosmetische laag over een onderliggend probleem

Overlay is in de wereld van digitale toegankelijkheid de naam voor een cosmetische bedekking op een probleem dat eronder blijft voortbestaan. Bekende voorbeelden van zogenoemde accessibility overlays zijn opties voor vergroten van letters op websites en contrastknoppen: oplossingen voor problemen die door een ander ontwerp niet nodig waren geweest. Of redundant, omdat de oplossing als standaardfunctie op een apparaat of in een browser zit. Voorbeeld: je kunt de grootte van letters op je telefoon aanpassen.

Met AI-overlay bedoelen wij: een extra laag over de website die voor de gebruiker synthetische content uitserveert. Dat gebeurt op basis van woorden die de tool kan vinden. Bij deze applicaties zit er geen mens tussen die het geleverde checkt. Er staat bij dergelijke gegenereerde tekst een disclaimer, dus dat getoonde informatie mogelijk niet klopt.
De AI-overlay kan eruitzien als een venstertje waarin gegenereerde tekst staat. Er zijn ook chatbots die teksten genereren. 39 gemeenten in Nederland hebben een chatbot. We vonden 9 websites met een specifieke tool die teksten genereert op basis van onderliggende content over een onderwerp.

We hebben voor dit artikel gelet op de digitale toegankelijkheid van de tool en de output. De output van de tool is beoordeeld op het onderwerp ‘paspoort aanvragen’. We vonden toegankelijkheidsproblemen bij de overlays. En ook inhoudelijke problemen bij zowel de chatbots als de tekstvensters met gegenereerde tekst.
Met ‘schrijftool’ bedoelen we software die bij het schrijfproces kan worden ingezet. Deze software bestaat al langer. Denk aan toepassingen die complexiteit van een tekst beoordelen op basis van patronen. Sommige schrijftools passen teksten aan of geven verbetersuggesties. We hebben deze tools niet onderzocht bij het maken van dit artikel.

Als een disclaimer nodig is, klopt het niet

De overheid mag nooit onjuiste en onvolledige informatie verstrekken. Dit staat haaks op de norm van de overheid voor foutloze en toegankelijke informatie. De overheid is immers monopolist in bepaalde informatie en diensten waar mensen afhankelijk van zijn. De inspanningsverplichting voor geslaagde communicatie ligt dus bij de afzender, niet bij de ontvanger. Die moet alles doen wat mogelijk is om voor iedereen zaken eenduidig, toegankelijk en helder te brengen op de passende manier.

De onderzochte AI-overlays presenteren extreem ingekorte teksten waarin vaak cruciale informatie mist.

Met AI-overlays winnen ongewenste disclaimers aan terrein. Disclaimers voor AI-overlays zijn namelijk nodig omdat overlays vroeg of laat by default inhoudelijk onjuiste en onvolledige informatie presenteren. Deze tools werken immers op basis van gevonden patronen in teksten, niet op basis van context en betekenis.

Dat disclaimers op synthetische teksten nodig zijn, klopt helaas. De onderzochte AI-overlays presenteren extreem ingekorte teksten waarin vaak cruciale informatie mist. Wij zouden in sommige gevallen op basis van de geserveerde informatie met de verkeerde spullen of verwachtingen aan de balie hebben gestaan. Zeker bij een paspoort voor kinderen of een spoedaanvraag. Deze situaties komen overigens geregeld voor. Ook bij laaggeletterden.

Proclaimers

Proclaimers bevatten de boodschap dat de afzender zich inzet voor correcte informatie. Het advies om proclaimers in plaats van disclaimers te gebruiken dateert al van begin deze eeuw. Disclaimers – de juridische uitvluchten op inhoudsgarantie – werden in 2007 in de ban gedaan door Burger@Overheid.nl, de voorloper van Burgerlink. In de periode daarna werden fundamentele afspraken gemaakt. Deze zijn vastgelegd in bijvoorbeeld De BurgerServiceCode, een initiatief vanuit het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties tussen 2008 en 2010. Deze gedragscode bevat 10 kwaliteitseisen, geformuleerd als rechten van burgers en bijbehorende plichten van de overheid. De eisen gaan onder andere over begrijpelijkheid, vrijheid van kanaalkeuze en het recht op juiste, volledige en actuele informatie. In 2011 adviseerde ook de Nationale Ombudsman over betrouwbaarheid. Het advies heeft als fundament dat iedereen moet kunnen vertrouwen op de inhoud van overheidsinformatie. De Ombudsman raadde toen ook al het gebruik van disclaimers af.
De proclaimer wordt in de jaren die volgen voor steeds meer gemeenten – als garantie op inhoud van websites – het logische uitgangspunt. In juli 2015 had minstens 61 procent  van de gemeenten op hun homepage een link naar een proclaimer, 6 procent een disclaimer. In 2025 zijn er minder gemeenten met proclaimers, ongeveer de helft nog. We hebben ze bekeken: sommige zijn misleidend. Dan staat er ‘proclaimer’, maar is de verklaring in betekenis een disclaimer. In 2025 heeft slechts 3 procent een disclaimer.

De AI-overlay legt verantwoordelijkheid en denklast bij de lezer

Wat vaak mis gaat in het discours over tekstbegrip, is het idee dat laaggeletterde mensen gebaat zouden zijn met alleen ‘kort en simpel’. Maar het gaat in geslaagde communicatie soms juist niet om ‘kort’ en eerder om context waarbinnen mensen iets wel of niet begrijpen. Dan zijn er soms meer woorden nodig voor een toelichting. Wat ook meetelt in geslaagde communicatie is relevantie, volledigheid en garantie op juistheid. Een bot of AI-venster garandeert niets op dat vlak. Sterker nog: het claimt zelfs dat de ingekorte tekst mogelijk niet klopt.

Maar het gaat nog verder. De AI-overlay legt verantwoordelijkheid en denklast bij de lezer en zegt: check zelf eerst of het klopt wat ik zeg. Dit verzoek is paradoxaal, want veronderstelde problemen met tekstbegrip waren juist de aanleiding voor een AI-overlay. De AI-overlay was immers nodig omdat de broninformatie zo moeilijk te begrijpen zou zijn.

Er zijn ook andere argumenten tegen het gebruik van AI-overlays, zoals beschreven in bestaande wet- en regelgeving. De niet-vrijblijvende inspanningsverplichting voor publieksinformatie is vastgelegd in nationale en internationale afspraken en verdragen. Daarin staat bijvoorbeeld dat iedereen in Nederland en daarbuiten recht heeft op foutloze publiekscommunicatie en -dienstverlening.

Hoe mooi de belofte met "drukken op knoppen"en "oplossingen inkopen" ook klinkt, een computer kan het schrijfwerk niet doen.

We zouden het cynische argument kunnen gebruiken dat de informatie sowieso al niet toereikend was of incompleet. En dat een hallucinerende vriendelijke bot dan ook niet zo erg is. Maar zelfs dit argument zou pleiten tegen gebruik van AI-overlays. Want onjuiste input levert immers geen goede output op. En als we de input dan verbeteren, dan staat het er toch immers meteen goed? Dit is daarom altijd het enige juiste advies: herschrijf eerst de brontekst. We zagen namelijk flink wat verbeterpunten op zinsconstructies, duplicate inhoud, vage tussenkopjes en verstopte teksten.

Magische oplossing en “druk op de knop”

De inrichting van goede publiekscommunicatie en -dienstverlening is niet eenvoudig. Veel overheidswebsites zijn complex geworden, omdat diensten ingewikkeld kunnen zijn. Er zijn meer redenen, zoals technische erfenissen en padafhankelijkheid. Maar ook omdat de weg naar opklaring van die complexiteit eentje is met veel uitzoekwerk, verdampte budgetten en schuivende politieke agenda’s. Dat levert dilemma’s op en lastige gesprekken die niet iedereen graag voert. Sommige ingekochte systemen zijn moeilijker te veranderen dan tekst op ingebeitelde stenen. Op veel gemeentewebsites zien wij die compromissen terug, met ingewikkelde, verouderde teksten en onlogische sortering van onderwerpen als bewijs.

De behoefte om complexiteit aan te pakken met een magische, technische en neutrale oplossing die al het handwerk uit handen neemt, is niet verrassend. Er is trouwens in het algemeen een voorliefde voor technische oplossingen waarbij de informatie zelf en hoe die tot stand komt op de achtergrond zijn geraakt. Voor gemeenten staat aanbesteden en ‘een nieuw contentmanagemenstsysteem’ al snel gelijk aan ‘een nieuwe website’, een website die dankzij nieuwe techniek alles beter maakt.

Hoe mooi de belofte met “drukken op knoppen”en “oplossingen inkopen” ook klinkt, een computer kan het schrijfwerk niet doen. Uitleg en bewegwijzering van overheidsdiensten en -verplichtingen is namelijk een precies karwei dat door inhoudelijk deskundige en communicatief vaardige mensen moet worden gedaan. Het goed omschrijven van diensten kan bijvoorbeeld alleen op basis van informatie waar geen enkele AI toegang tot heeft. Bijvoorbeeld omdat informatie in ontoegankelijke bronnen, andermans systemen of in hoofden van mensen zit. En al zou AI toegang hebben tot alles, dan nog is het onmogelijk de taak voor heldere communicatie bij AI neer te leggen. Voor heldere menselijke communicatie is nu eenmaal menselijke cognitie vereist. Dat zit niet in AI en AI kan menselijke cognitie ook niet nabootsen.

Vertrouwen ontvangen door betrouwbaar te zijn

Wij zien overheidscommunicatie en -dienstverlening als fundamentele taak die de overheid niet aan externe partijen en ‘handige tools’ kan overlaten. De afzender – een overheidsorganisatie in dit geval – kan alleen vertrouwen ontvangen door 100% betrouwbaar te zijn. De overheid wint aan vertrouwen als het de basis op orde heeft en houdt. Dus: als zij overheidsdiensten aanbiedt op een passende manier. En communiceert in volwassen en begrijpelijke taal. Het omgekeerde is ook waar. Als de overheid nalaat bewegwijzering tussen diensten aan te brengen en onvolledig of niet helder communiceert, ondergraaft dat het vertrouwen in die overheid.

Iedereen moet erop kunnen vertrouwen dat informatie van een overheidsorganisatie altijd klopt. Met AI-overlays kan dat niet. Door de aard van de techniek, kunnen synthetische teksten immers nooit gepubliceerd worden zonder de ongewenste juridische uitvluchten over inhoud. Het lijkt erop dat de overheid in de jarenlange strijd tegen ingewikkeld taalgebruik en complexiteit in dienstverlening, nu juist wél kiest voor een optie die haaks staat op wat de bedoeling is in die strijd, gestut met codes en verdragen. We kunnen het ook stelliger formuleren. Namelijk dat de overheid ondertussen met de beste bedoelingen AI-overlays implementeert en dat dit te beschouwen is als onverantwoordelijk en onrechtmatig. Want de overheid draagt immers een verplichting van onvoorwaardelijke betrouwbaarheid.

Het implementeren van AI-overlays zonder inhoudelijke garanties is een zwaktebod.

Met andere woorden: wij zien experimentele AI-overlays met disclaimers op overheidswebsites als onwettelijk terugroeien op vigerende verdragen en besluiten. Overeenkomsten waar bestuur en management figuurlijk en zelfs ook letterlijk een handtekening onder hebben gezet.

Hoe verder?

Wij maken ons dus zorgen over het aan de kant schuiven van bestaande wet- en regelgeving en rechten van alle mensen. Wet- en regelgeving voor digitale toegankelijkheid bestaan ook niet voor niets. Deze zijn glashelder en apolitiek. Het lijkt ons geen goed idee om intussen met de komst van experimentele ontoegankelijke AI-overlays te doen alsof die afspraken over inclusief ontwerp ook niet meer bestaan.

We geloven in de goede intenties om een oplossingen te willen bieden op de weg naar begrijpelijkheid van informatie voor iedereen. Maar voor ons is het implementeren van AI-overlays zonder inhoudelijke garanties een zwaktebod. We pleiten voor inclusieve informatie die voor iedereen te begrijpen is. En waar geen additionele tekstversimpelaar voor nodig is. Informatie waar een proclaimer bij hoort, geen disclaimer.

Hoe dan verder? In essentie is het vak van iets helder en in begrijpelijke taal opschrijven goed omschreven. Daar zijn beroepsopleidingen en trainingen voor. Ook is literatuur voorhanden. Er bestaan algemene standaarden en vuistregels voor overheidsteksten, ook voor online. Verder zijn er goed beschreven methodieken die neerkomen op het doen van onderzoek en het checken van feiten. Alle teksten zijn uiteindelijk gebaat bij een heldere structuur met scanbare, inhoudelijke tussenkopjes, gemaakt met geverifieerde inhoud.

Dit schrijfwerk zelf doen, de inhoud precies uitzoeken is altijd aan twee kanten behulpzaam. De inwoner profiteert vanwege het leesgemak, de ambtenaar zelf dankzij het schrijfproces. Want als je iets simpel kan uitleggen, weet je immers ook hoe het zit. Het begrijpelijk opschrijven is dan heel eenvoudig geworden. Een AI-overlay is dan helemaal niet meer nodig.

 

 

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren