Fortatter:
Jesper Pedersen
Advisory Key Expert, Maintenance & Integrity
Siemens Gamesa Renewable Energy A/S

 

“Shit in, shit out”

En database er kun så pålidelig som den information der er puttet i den. Med andre ord, hvis man putter skidt ind, så kommer der med garanti også skidt ud i den anden ende. Dette er en eviggyldig ‘regel’, som i højeste grad også gælder inden for vedligehold. Indenfor ‘vores’ verden har man ofte computersystemer til at håndtere mængden af data samt præsentere dem på en fornuftig måde til brugerne. Sådanne vedligeholdssystemer kendes ofte som CMMS (Computerized Maintenance Management System) eller det nyere begreb EAM (Enterprise Asset Management). De gør det samme, men det sidste er blot et moderne udtryk. Man kan vel også roligt sige at ‘computerized’ næppe er banebrydende nutildags - og det sælger sikkert ikke så godt.
Brugen af big data, analytics og simulationer til at støtte beslutningstagning i forskellige forretningsområder har fået massivt fokus på det seneste. Dog er det vigtigt at indse at eksisterende data har en stor indflydelse på potentialet af det såkaldte analytics. Især fordi formålet med indsamling af data kan have ændret sig hen ad vejen. Eksempelvis kan man have indsamlet data med et kommercielt formål igennem en årrække, men hvis man senere ønsker at bruge disse data i en teknisk kontekst, så kommer man til kort. Dette skyldes at opløsningen af disse data ofte ikke stemmer overens, eller man muligvis har sorteret noget fra og dermed kun registreret en del af de faktiske hændelser. Så ofte løber man panden mod en mur, for man kan vel ikke basere beslutninger på falske forudsætninger eller tvivlsom data. Eller kan man blot justere de tvivlsomme data qua dømmekraft og erfaring?
Så hvordan pokker får man defineret hvornår data har en høj kvalitet? Datakvalitet kan ses som et relativt koncept, som primært er baseret på ideen om ‘fit for use’. Dette betyder at data har en høj kvalitet hvis det er brugbart til formålet. Dog kan man stille nogle generelle kriterier op, som man bør have for øje, hvilket jeg forsøger i det følgende. Data af høj kvalitet bør være akkurat, fuldstændig og stemme overens. Derudover kommer der en tidsdimension i spil, som det beskrives herunder:
Nøjagtighed (accuracy): Synonymer for dette begreb er fejlfri, korrekt, pålidelig og præcis. Et simpelt eksempel kunne være serienummeret på en maskine. Stemmer nummeret i systemet overens med mærkepladens oplysninger? I dette eksempel er det ganske nemt at vurdere om dette datasæt er nøjagtigt eller ej. Repræsenterer registreringen i systemet en værdi som afspejler den virkelige verden?
Fuldstændighed (completeness): Denne dimension handler om i hvilken grad den krævede data er tilgængelig i et datasæt. Eksemplet på dette kunne være klassifikation i et VH-system, hvor man har defineret at en elmotor altid skal registreres med fire attributter. Hvis jeg kun har 3 ud af 4 af disse i systemet vil datasættet for den specifikke motor ikke være fuldstændigt. Inkluderer ens data alle relevante hændelser og værdier som eksisterer i den virkelige verden?
Overensstemmelse (consistency): hvorvidt et informationsobjekt er præsenteret i samme format, og er kompatibelt med andre lignende informationsobjekter. Eksempel på manglende overensstemmelse kunne være hvis reservedelspriserne i ens system ikke altid er præsenteret i samme møntfod. Det kan være svært at identificere hvis enheden befinder sig i et andet felt end selve værdien, så det ikke er åbenlyst for brugerne. Præsenteres data i samme format og dermed gjort forståelig?
Rettidighed (timeliness): dette handler om alderen på data og om hvorvidt de er tilstrækkeligt opdateret til opgaven. Ikke forstået på den måde at en hændelse skal være eksakt registreret på sekundet, men nærmere at det er brugbart til senere.
Disse definitioner er komplekse og ikke så nær uddybende. Derfor kan det give mening at illustrere sammenhængen grafisk, hvilket ses herunder.
Alle virksomheder med respekt for sig selv har efterhånden en digitaliseringsstrategi, mere eller mindre klart defineret. Nogle gange kan sådan en strategi være højtflyvende og ambitiøs, mens den andre gange er lidt mere basal. Hvis man taler om basale ting indenfor vedligehold, så ligger et computerbaseret VH system som en af de fundamentale ting i nederste lag i pyramiden fra artikel 1. Jeg vil dog vove skindet og påstå man godt kan styre sit vedligehold effektivt selvom man ikke putter det ind i en computer.
Disse ovennævnte systemer er en kilde til meget godt og brugt rigtigt er de en stor gevinst for effektiviteten af VH-organisationer. På den anden side er de også ofte en kilde til frustration, da datakvaliteten ofte ikke står mål med det man har investeret. Derfor er det altid vigtigt at huske disse systemer ikke løser noget af sig selv. De højner ikke validiteten eller placerer dataene de rigtige steder. De gør forhåbentligt dataene mere tilgængelige for brugerne, så man kan træffe velbegrundede beslutninger baseret på data og ikke mavefornemmelser.
De næste artikler i rækken vil også relatere sig til data, eksempelvis hvordan man på fornuftig vis får struktureret mængder af data. Det er nemlig vitalt hvis man vil opnå løbende forbedring af sit vedligehold. Dette kræver at man indsamler data omkring pålidelighed fra de fysiske aktiver. Dette bør naturligvis foregå med en vis detaljegrad hvis man ønsker at bruge dataene til at optimere sit vedligehold. Ofte handler det om at identificere hvor VH-budgettet er brugt, dvs at identificere såkaldte cost drivers eller bad actors.
I sidste ende er det vel egentlig kun dataforbrugeren som kan vurdere om datakvaliteten er i orden. Det er i hvert fald min foreløbige konklusion.
Hvad tænker du?

Læs evt. mere om netværket på:
http://ddv.org/netvaerk/maintenance-excellence

Filer
Filnavn Størrelse Sidst ændret
PDF-ikon 4._datakvalitet_febr_2019.pdf 858.7 KB 08/05 2019