Kaiken takana on API – kurkistus AI_Leadwell -konseptin konepellin alle
AI_Leadwell -hanke etsii ratkaisuja työntekijöiden kokonaisvaltaisen hyvinvoinnin edistämiseen. Mutta miten tämä mahdollistetaan teknisesti? Antti Lumijärvi avaa kirjoituksessaan AI_Leadwell -hankkeen teknistä toteutusta.
AI_Leadwell -hankkeessa etsitään ratkaisuja ja analysoidaan proaktiivisten toimien vaikutuksia työntekijöiden kokonaisvaltaisen hyvinvoinnin edistämiseen. Tässä kirjoituksessa kurkistetaan konepellin alle AI_Leadwell -konseptin tekniseen puoleen. Konseptin tavoitteena on tuottaa käyttökokemus, joka on vaivaton, reaaliaikainen ja tietosisällöltään laadukas. Teknisen toteutuksen tulee pystyä vastaamaan näihin tarpeisiin kustannustehokkaasti. Omat vaateensa asettaa myös tietosuojalainsäädäntö.
Kaiken takana on API
AI_Leadwell:issa tiedon saatavuus ja sen jakaminen eri osapuolien välillä on onnistumisen edellytys ja teknisestä näkökulmasta keskiössä ovat API:t, eli tiedonvaihtorajapinnat. API:en avulla luodaan reaaliaikainen ekosysteemi loppukäyttäjien, laitetoimittajien ja tiedon hyödyntäjien välille.
AI_Leadwell -konseptin yksi keskeisimmistä käsitteistä on käyttäjän aktiivisuus ja siitä kerättävä data. Aktiivisuusdataa kerätään hankkeessa pääasiassa Polarin laitteilla. Käyttäjien keräämä data saadaan haettua Polarin tarjoaman Accesslink API:n kautta.
Muita aktiivisuusdatan tietolähteitä ovat esimerkiksi älypuhelimet, jotka aina mukana kulkevina ovat matalan kynnyksen datankeräysvälineitä. Android-laitteilla aktiivisuus- ja terveysdatan keräämiseen ja integroimiseen löytyy GoogleFit-alusta, josta tiedon edelleen hyödyntämisen mahdollistaa kattava Googlen API. Applella vastaavaa dataa kerää Apple Health, johon ei – ainakaan tämän projektin alkaessa – ollut saatavilla laitteesta ulospäin tietoja tarjoavaa rajapintaa, mutta datan saa ulos suoraan laitteesta tiedostona.
API-yhteyksissä kukin käyttäjä hyväksyy tietojen haun kertaalleen, jonka jälkeen haku voidaan tehdä käyttäjää häiritsemättä automaattisesti. Tässä hankkeessa Polarin ja Googlen API:sta tiedot noudetaan Python-sovelluksella, joka toimii Azuren palveluiden avulla ajastetusti hakien uudet tiedot säännöllisesti. Erityismaininnan saa Polarin tarjoama esimerkkiohjelma API:n hyödyntämiseen, jonka avulla vähemmänkin Pythonia harrastanut pääsee helposti kiinni omiin tietoihinsa. Pienellä räätälöinnillä se palvelee myös isomman loppukäyttäjäryhmän ja automaattisesti tapahtuvan tiedonhaun tarpeita.
Muita konseptissa hyödynnettäviä käyttäjäkohtaisia tietoja ovat esimerkiksi Emooterilla kerätyt työn imun mittarit. Organisaation tasolta tuodaan mukaan vielä esimerkiksi tulostietoja.
Kustannustehokas Azure Data platform
Miten nämä tietolähteet sitten yhdistetään ja tarjotaan loppukäyttäjille sopivaan muotoon? Käytössä on Azuren palveluilla rakennettu Data Platform, jonka arkkitehtuuri mukailee kokemuksemme mukaan parhaiden käytäntöjen mukaista Data Vault 2.0 -mallinnettua tietovarastoa. Hannun blogista voi tutkia tarkemmin, mistä on kyse ja mitä kerroksia platform sisältää. Azuren päälle saadaan toteutettua kustannustehokas, tarvittaessa nopeasti skaalautuva alusta, joka hoitaa niin integroitumisen lähdejärjestelmiin, kuin tiedon jalostamisen haluttuun muotoon.
Data platformista tiedot saadaan lopulta hyödyntämisrajapinnasta ulos siinä muodossa, mikä on lopullisen raportoinnin kannalta optimaalista, jonka jälkeen visualisointi voidaan toteuttaa esimerkiksi Power BI:n avulla. Historioitu data tarjoaa myös hyvät valmiudet kokeilevaan analytiikkaan. Tiedon näkyvyyttä vain oikeille henkilöille ja tahoille kontrolloidaan Azure AD:n avulla.
Automaattisuus ja reaaliaikaisuus
Käyttökokemuksen ja konseptin onnistumisen kannalta on olennaista, että tiedonkeruu on automaattista ja loppukäyttäjälle tuotetun tiedon reaaliaikaista. Automaattisuudella pyritään varmistamaan, että käyttäjän ei tarvitse tehdä itse toimenpiteitä dataa tuottaakseen, vaan tiedot haetaan taustalla API-ekosysteemiä hyödyntäen.
Reaaliaikaisuus taas näkyy loppukäyttäjälle siten, että tarjolla on ajantasaista tietoa siitä, miten juuri nyt menee – eikä viikko sitten. Tekninen toteutus ei aiheuta tällä hetkellä rajoitteita reaaliaikaisuudelle, eli periaatteessa tiedot olisi mahdollista saada näkyviin lähes viiveettä. Käytännössä kerran vuorokaudessa on kuitenkin usein riittävä päivityssykli.
Datan laatu avaintekijänä
Kuten analytiikka yleensä, myös AI_Leadwell -konsepti vaatii, että dataa on paitsi luotettavasti saatavilla, se myös pitää paikkaansa. Lopulta – mitä iloa on analytiikasta, joka tehdään perustuen puutteelliseen tai virheelliseen dataan?
Data platformin osuus laadusta on erityisesti datan saatavuuden varmistaminen. Tiedonsiirtoprosessit ovat suunniteltu vikasietoisiksi siten, että kaikki laitteiden keräämä sekä muista lähteistä saatava data saadaan varmasti myös analytiikan käyttöön.
Datan saatavuuden lisäksi on analysoitu datan relevanssia ja luotettavuutta, eli kuvaako saatu data lopulta sitä, mitä halutaan mitata? Havaittuihin puutteisiin on pyritty puuttumaan sekä lähteiden puolella, että tilastollisin keinoin myös Data platformin sisällä. Lopputuloksena käyttäjä saa paitsi reaaliaikaista, myös luotettavaa ja oikeita asioita mittaavaa tietoa omasta hyvinvoinnistaan.
Tietosuojalainsäädäntö turvaa yksityisyyden
Lainsäädäntö antaa puitteet henkilötietojen käsittelylle, mikä korostuu AI_Leadwellin kaltaisessa konseptissa. Eri osapuolen tietosuoja on oleellinen tekijä, joka tulee pystyä varmistamaan. Yksi ratkaisu on hyödyntää työantajasta ja työntekijästä erillistä integraattoria, joka yhdistää tarvittavat tiedot ja tuottaa datan raportoitavaan muotoon siten, että kaikkien osapuolien tietosuoja varmuudella taataan.
Lue myös Alina Peussan aiempi kirjoitus "Johda itsesi hyvinvointiin datan avulla"
Tilaa blogikirjoitukset sähköpostiisi