Wegdromen over mogelijke toepassingen van Artificial Intelligence is niet zo moeilijk. Concrete ideeën erover formuleren lukt ook nog wel. Maar uiteindelijk komt het er ook op aan om goede data als input te gebruiken voor AI. Want het aloude cliché ‘garbage in, garbage out’ is ook nu nog een waarheid als een koe.
Aandacht voor datakwaliteit
De aandacht voor datakwaliteit is verre van nieuw. Met de komst van nieuwe digitale technologie begonnen organisaties enkele tientallen jaren geleden al steeds meer in te zien dat succesvol zijn in een digitale omgeving vraagt om een gedegen fundament. Data over onder meer klanten, producten, mensen en eigen processen moet op orde zijn, want alleen dan kun je tot betere inzichten komen en daarmee tot betere beslissingen. Dat geldt op alle niveaus – van strategische besluiten in de boardroom tot dagelijkse acties op de werkvloer –en in alle domeinen. Als CFO kun je beter voorspellen waar er kansen liggen, als dokter kun je betere diagnoses stellen en als marketeer kun je met precisie de behoefte van de klant in kaart brengen.
Dat alles werkt (uiteraard) alleen maar als die inzichten berusten op data die deugt. En dat is geen vanzelfsprekendheid, zo leert de praktijk. Systemen zijn vervuild geraakt met verouderde data, er zijn verschillende datadefinities in omloop, na een integratie van organisaties zitten er lacunes in de data, en zo zijn er nog tal van problemen.
Dat is al vele jaren een aandachtspunt binnen tal van organisaties en toen digitalisering steeds meer een strategische backbone werd, kwam er dan ook steeds meer op het spel te staan om datakwaliteit aan te pakken. Toch waren de pogingen in de praktijk niet altijd even succesvol. Data Management – het borgen van betrouwbare en consistente data – en Data Governance – het hanteren van duidelijke spelregels en verantwoordelijkheden – was in veel gevallen een ‘moetje’ en leverde soms ook maar een tijdelijke verbetering op. Het werd helaas te vaak een doel op zich, en er was geen klip-en-klaar zicht op de toegevoegde waarde ervan.
De noodzaak van datakwaliteit in een AI-tijdperk
Veel organisaties realiseren zich dat dit niet langer houdbaar is, vooral nu de toepassing van AI een cruciaal onderdeel wordt van de strategie. Meer dan ooit tevoren is er dan ook een duidelijke businesscase voor het investeren in datakwaliteit. Datakwaliteit mag dan vaak niet worden gezien als een sexy onderwerp, in een tijdperk vol AI twijfelt haast niemand nog aan de noodzaak ervan.
In onze ervaring is er enerzijds veel snelheid geboden. Om Artificial Intelligence in te kunnen zetten – en in de concurrentiestrijd geen achterstand op te lopen – moeten organisaties hun data ‘opwerken’ naar een niveau waarop AI tot betrouwbare en nuttige resultaten kan leiden. Pas daarna is het een goede basis om bijvoorbeeld met AI klanten persoonlijk te adviseren – met een chatbot of in een andere vorm – of interne processen te stroomlijnen. Specialistische AI tooling kan bij het opwerken van de data overigens een belangrijke rol spelen door inconsistenties of onvolledigheden op te sporen in grote hoeveelheden data. Deze tooling versnelt dergelijke projecten aanzienlijk.
Een gestructureerde aanpak is essentieel
Het vergt anderzijds ook een gestructureerde aanpak met een wat langere adem. De beste manier om de kwaliteit van data structureel op niveau te brengen is immers om processen en systemen in te richten waarbij checks op data worden afgedwongen. Dat is echter niet in een paar maanden gedaan, al was het alleen maar omdat het niet alleen gaat om aanpassingen van harde zaken – zoals automatische validatie en workflows die data-invoer of controle afdwingen – maar ook om het creëren van een breed gedragen besef in de organisatie. Deze gestructureerde aanpak verdient minstens dezelfde urgentie.
De beste aanpak is te zorgen voor een portfolio aan (verbeter)projecten waarin zowel aandacht is voor de kortetermijnwins als de langetermijnverbeteringen. Zodat er snel én fundamenteel wordt ingespeeld op een realiteit waarin Artificial Intelligence een hoofdrol opeist.