Data er guld, men hvad er dårlige data?
Mange er begyndt at tale om data. Også om at data er vigtigt, "data er et aktiv", "data er guld" etc.. Men det er som om, det stadig er abstrakt, hvad man skal gøre for at behandle data som et aktiv og måske også, hvorfor det er vigtigt.
Helt kort, så er det sådan, at når data er dårlige (f.eks. mangelfuld, redundant, unøjagtig, inkonsistent eller slet og ret forkert), så fungerer forretningsprocesser ikke, analyser og rapporter er utroværdige eller mangelfulde, og ”gode” beslutninger lavet på dårlige data, kan i sidste ende vise sig at være dårlige beslutninger.
Lad mig folde det ud med et par eksempler, jeg er stødt på, og som på ingen måde er unikke.
Hvis du f.eks. har mange dubletter i dine systemer, hvad enten det er kunder, leverandører, produkter eller bogføringskonti, så rammer det dine processer, dine analyser og din beslutningsdygtighed.
Forestil dig, at du skal indkøbe en vare fra en leverandør, men leverandøren findes mange gange i systemet. Hvilken skal du vælge? Hvordan ser dine spend-analyser ud, hvis leverandøren findes flere gange, måske under forskellige navne? Hvad betyder det for din forhandling om pris, hvis du ikke ved, hvad du har købt for hos leverandøren? Hvordan beslutter du, hvilke leverandører du vil bruge fremadrettet, hvis dit analysegrundlag er upålideligt? Du kan selv tilpasse tankeeksperimentet med f.eks. kunder, produkter, konti eller noget fjerde.
Data er alle teknologiers råvare
I dag investerer mange i forretningsudvikling gennem teknologi, der lover store potentialer. Fælles for alle teknologiske tiltag er, at data er den råvare, der skal bruges af teknologien for at frembringe de lovede resultater. Når data er dårlige, så kan teknologien ikke lykkes optimalt. Har du f.eks. sat en RPA- (robot) løsning op for at spare manuelle ressourcer og dine data er dårlige, så vil du uundgåeligt ikke kunne opnå det fulde potentiale af din RPA-løsning. Den vil gå i stå eller kræve vejledning alle de gange, den støder på at data ikke er, som de skal være.
Hverdagens helte med tape og plaster
Ofte sidder der lyse hoveder i virksomheden og slukker daglige ildebrande skabt af dårlige data. Det er hverdag for mange medarbejdere, at de lige skal finde den rigtige information, eller dobbelttjekke om det nu er det ene eller det andet, der er det rigtige. Eller man sidder manuelt og konsoliderer nogle data, fordi der ikke rigtig er nogen mapping mellem data i det ene og det andet system. Og man oplever det så tit, så der ikke engang er nogen, der rigtig tænker over, at datagrundlaget ikke er godt nok, og hvor mange kræfter, der egentlig bruges på daglig basis for at rette op på det. Det er jo hverdag. Eller også er man nærmest smerteligt bevidst om, at data er så dårlige, at man ikke kan overskue, hvor man skal gå i gang med at løse problemerne, så man koncentrerer sig bare om at få det til at blive nogenlunde rigtigt med berigelser og manipulation af data – ofte i Excel.
Store tab, fængsel og avisoverskrifter
Nogle gange går det galt, og virksomheder og institutioner ender på forsiden af aviserne, bliver straffet med bøde eller fængsel eller må acceptere store tab, fordi deres data formentlig uforvarende har bragt dem i problemer. At dårlige data var problemet er dog ikke altid åbenlyst, men det er ofte data, der styrer vores processer og beslutninger i virksomheder. Når staten f.eks. har lavet fejl i udbetalingerne af varmechecks til borgere, så har man efterfølgende måttet konstatere, at det er dårlige data, der ligger bag.1
Ingen kan lide at gøre rent igen og igen
I min optik er udfordringen, at mange ikke indser, at man er nødt til at investere i at få styr på sine dårlige data. Ikke bare som en engangsinvestering i en større omgang datavask, men som en permanent indsats, hvor man dedikerer medarbejderes tid og kræfter i at opretholde gode data proaktivt - i stedet for at de bruger dem på brandslukning, lappeløsninger og datavask. Jeg lover, at det er langt sjovere at arbejde proaktivt med at opretholde gode data, end det er, dag efter dag, måned efter måned, at rense data og kompensere for dårlige data eller være nødt til at arbejde over for at hitte rede i, hvad der er op og ned i et datagrundlag.