Onbetrouwbare data = Intelligentie van morgen
De gegevens die vandaag in uw applicaties worden verwerkt vormen de intelligentie van toekomst. Dus niet alleen de gegevens die u vandaag invoert, maar ook de “tweedehands” data van andere applicaties en partijen en publieke gegevens die uw gebruikers “erbij zoeken” vormen binnen niet al te lange tijd de bron van waaruit AI-tools hun “intelligentie” gaan destilleren. Dat is een beangstigende gedachte en dat moet dus anders.
Hoe betrouwbaar zijn uw data?
Iedereen wil betrouwbare en actuele data. Echter, naast het feit dat ook uw medewerkers fouten maken bij de invoer wordt lang niet alle data in uw organisatie door uw eigen medewerkers ingevoerd. Burgers, klanten en bedrijven kunnen hun eigen contactgegevens aanpassen en we krijgen veel “tweedehands” data van andere partijen in de vorm van dagelijkse uploads, wekelijkse extracten of ad-hoc opvraagactiviteiten van publieke gegevens van het internet. Dit alles vormt een schat van gegevens die u, diep in uw hart, nu al niet voor de volle 100% vertrouwd.
De leerstof van toekomstige AI
Over enkele jaren is AI gemeengoed en de gegevens van vandaag zijn de “leerstof” voor deze vorm van intelligentie. We weten allemaal hoe belangrijk leerstof is en het is dus op zijn minst vreemd dat velen van ons erop rekenen dat AI straks fantastische dingen kan doen terwijl we weten dat de huidige datakwaliteit op z’n minst gezegd vaak onder de maat is.
Iedereen kent het; gegevenssets worden periodiek bijgewerkt.
Er worden bestanden van diverse overheidsinstanties geïmporteerd, er worden correcties gemaakt in onze eigen data de verbeterde gegevens worden teruggestuurd. Of niet. Soms zien we dat dezelfde correctie tientallen malen gemaakt wordt voordat ook de bron gecorrigeerd is. Daarnaast worden importbestanden met grote regelmaat nog handmatig of automatisch aangepast. In de afgelopen jaren is er vooral veel data bijgekomen en is de kwaliteit van niet echt verbeterd.
Betrouwbare data? Een integratiestrategie!
Er zijn veel initiatieven om de kwaliteit van data te verbeteren; data ophalen bij de bron via APIs (HaalCentraal), standaard applicaties in de cloud, interne digitaliseringsinitiatieven, maar bijna overal gaat het om deelprojecten en zelden over de data in het algemeen. Alleen een integratiestrategie gaat hier het verschil maken. Een strategie waar niet alleen beschreven wordt WELKE gegevens we ophalen en uitwisselen, maar ook HOE we dat doen, WAT we met die opgehaalde gegevens doen (weggooien of verrijken en bewaren), WIE die gegevens mag zien/muteren etc.
Het uitwisselen van gegevens is één van de belangrijkste redenen waarom er steeds meer samenwerkingsverbanden binnen de overheid ontstaan. Het is dus tijd voor een solide integratiestrategie. Niet alleen om gegevens uit te wisselen, maar om een fundering te creëren waarmee we dat zo flexibel, betrouwbaar en veilig mogelijk kunnen doen voor nu en in de komende jaren.
Betrouwbare AI? Betrouwbare data!
De vraag is niet OF Artificial Intelligence ingezet gaat worden binnen de overheid, maar wanneer. En dat zal nog voor genoeg uitdagingen zorgen. Als we vandaag, door middel van een pragmatische integratiestrategie, zorgen dat onze gegevens zo betrouwbaar, actueel en veilig mogelijk zijn, dan hoeven we ons dáár straks in ieder geval geen zorgen meer over de maken.
Toch maar eens met een integratie-expert praten wat er nodig voor een goede integratiestrategie? Neem dan contact met ons op voor een Architectuur-scan of voor één van onze andere adviesdiensten.