Huonokin ohjelmisto laadukkaalla datalla on organisaatiolle parempi kuin hyvä ohjelmisto, jossa on huonolaatuista dataa.
Kun ohjelmistoprojekti pääsee julkisuuteen, otsikot ovat usein raflaavia: ”Järjestelmä kesti käytössä noin kolme tuntia. Asiakkaat saivat kärsiä, kun tietojärjestelmät yhdistettiin. Sähköinen äänestysjärjestelmä hukkasi 232 ääntä.”
Ohjelmistoprojektien onnistumista mitataan usein julkisuudessa käyttäjäkokemuksen kautta, eli kuinka nopea ja helppokäyttöinen järjestelmä on. Loppukäyttäjien näkökulmasta edellä mainittu onkin varmasti tärkein asia.
Sen sijaan koko organisaation näkökulmasta paljon tärkeämpi asia jää usein huomioimatta: sekä järjestelmän että samalla koko organisaation käytössä olevan datan laatu ja sen saatavuus.
Usein julkisuudessa ihmetellään myös, miksi esimerkiksi julkishallinnon projektit maksavat yhä suuria summia, vaikka ohjelmointityö muuttuu vuosi vuodelta helpommaksi. Hyvänä esimerkkinä tästä on vertailut Suomen ja Viron potilastietojärjestelmien kustannuksien osalta.
Osaan kustannuserosta on yksinkertainen vastaus: organisaatiolle jo pitkän ajan kuluessa kertynyt data. Data ja sen hallinta maksaa moninkertaisesti enemmän kuin pelkät ohjelmointikustannukset.
Käyttöongelmat ovat usein ratkaistavissa joko ns. laittamalla ”rautaa rajalle” tai uudistamalla sovelluksen käyttöliittymää ja toimintalogiikkaa. Datan osalta sama ratkaisu ei toimi, koska huono data ”periytyy” ympäri organisaatiota. Lisäksi käyttöongelmat ovat helposti havaittavissa ja usein kohtuullisessa ajassa korjattavissa, kun taas huonolaatuinen data havaitaan usein vasta vuosien päästä.
Datan heikko saatavuus on usein ohjelmistojen keskeinen ongelma, mutta siitä ei kirjoiteta lehtijuttuja, koska se ei ole loppukäyttäjien eli suuren yleisön ongelma.
Hämmästyttävän usein ohjelmistojen käyttöönoton jälkeen törmätään kuitenkin siihen tosiasiaan, että järjestelmän pääkäyttäjä ei saa ohjelmiston tuottamaa dataa järkevällä tavalla kootusti ulos edes Exceliin. Puhumattakaan siitä, että järjestelmä sisältäisi kehittyneitä integraatio- tai analytiikkaratkaisuja.
Tämä aiheuttaa sen, että samalla ohjelmiston tuottaman datan laatua on lähes mahdoton arvioida. Tällöin käy niin, että ohjelmisto saattaa olla pitkään käytössä ilman, että ohjelmiston tuottaman datan heikko laatu havaitaan.
Ohjelmistohankintojen perimmäinen idea pitäisi olla laadukkaan datan tuottaminen. Tällöin ratkaisun keskiössä pitäisi olla ohjelmiston tietokanta ja sen sisältämä data. Koodia voidaan nopeasti korjata, käyttäjäkokemusta parantaa tai ohjelmisto voidaan jopa korvata uudella ratkaisulla.
Mutta data on ikuista, vaikka ohjelmisto tai palveluntarjoaja vaihtuisi. Tai ainakin datavirheet tuntuvan säilyvän organisaatioiden riesana ikuisuuksia.