Skip to content
AI

Tekoälyhypestä generatiivisiin kielimalleihin –miten voit varmistua, että AI-sovellukset toimivat eettisesti kestävällä pohjalla?


Tekoälyn hyödyntämisessä siirrytään nyt piloteista ja kokeiluista käytäntöön. Toisin sanoen tekoäly vaikuttaa aidosti ihmisten elämään. Mutta voiko tekoälyyn luottaa? Tahallisten ja tahattomien väärinkäytösten ehkäisyssä avuksi tulee tekoälyn hallinta (AI Governance).

Suurin tekoälyhype oli jo hieman laantunut ja markkinaodotukset tasaantuneet. Sitten uudet, laajoihin kielimalleihin (LLMs) perustuvat generatiiviset tekoälysovellukset herättivät uutta innostusta tekoälyn hyödyntämisestä tietyissä tehtävissä ihmisten avustajana. Osin aiheestakin.

Tekoälypohjaisten sovellusten rakentamisessa ja käytössä siirrytään PoC-vaiheesta niiden todelliseen hyödyntämiseen. Samalla tekoälyn hallinnan merkitys liiketoiminnassa tulee kasvamaan ja organisaatioilta edellytetään, että niissä ymmärretään vastuullisen tekoälyn kehityksen perusteet.

"According to Gartner 54% of models are stuck in pre-production because there is not an automated process to manage these pipelines and there is a need to ensure the AI models can be trusted.” (Gartner AI in organizations survey.)


Viimeistään nyt onkin hyvä aika selvittää, mitä tarkoitetaan, kun puhutaan tekoälyn hallinnasta. Entä mitä se voisi tarkoittaa omassa toiminnassa?

Mitä on AI Governance eli tekoälyn hallinta?

AI governance eli tekoälyn hallinta (malli) on prosessi, jossa määritellään joukko säädöksiä ja käytäntöjä sen varmistamiseksi, että tekoäly- ja koneoppimisalgoritmit kehitetään ja niitä käytetään siten, että tekoäly(päätöksenteko) toimii oikeudenmukaisesti ja luotettavasti sen käyttötilanteissa.

Tekoälyn hallinnassa käsitellään siis asioita, joiden avulla varmistetaan tekoälyn eettinen käyttö, mukaan lukien

  • läpinäkyvyys,
  • puolueettomuus,
  • yksityisyys,
  • vastuullisuus ja
  • turvallisuus.

Tekoälyn hallinta kuuluu  läheisesti yrityshallinnan (corporate governance) ja IT-hallinnan (IT governance) alueisiin sekä datahallinnan (data governance) osa-alueeseen.

Tekoälyn hallinnassa kannattaa keskittyä asioihin, jotka auttavat tekoälyn eettisen käytön varmistamisessa, kuten siihen, miten se liittyy oikeudenmukaisuuteen, autonomiaan ja tiedon laatuun. Lisäksi tehokas tekoälyn hallinta edellyttää yhteistyötä sidosryhmien, kuten yritysten, valtion virastojen, akateemisten laitosten, toimialajärjestöjen ja kansalaisyhteiskunnan ryhmien välillä. 

Miksi taas uusi hallintohimmeli?

Tekoälyyn ja koneoppimiseen perustuvia ratkaisuja löytyy yhä useammilta eri aloilta, ja ne myös alkavat yhä enemmän vaikuttamaan jokapäiväiseen elämäämme.

Tekoälyjärjestelmiä käytetään jo mm. niin rahoitusalan järjestelmissä, viihdepalveluissa kuin yleisen turvallisuuden järjestelmissä ja maataloudessa. Jo laajan julkisen näkyvyyden, sekä vaikutuksien vuoksi, tulisi vaatia ymmärrettäviä ohjausmekanismeja ja hallinnollista kehystä järjestelmille, jotka voivat, etenkin tulevaisuudessa, vaikuttaa entistä enemmän ihmisten elämään.

Yritysten kannalta kannustimena toimii esimerkiksi mahdollisuus välttää brändi- ja maineriskit, joita on jo seurannut, kuten uutisista olemme saaneet lukea. Tekoälyjärjestelmät ovat mm. puutteellisen koulutusdatan takia olleet epäluotettavampia vähemmistöryhmiin liittyvissä tapauksissa (esim. kasvojentunnistus), epäjohdonmukaisia päätöksenteossa (esim. sukupuolen vaikutus lainansaantiin) tai yksityisyyden ja immateriaalioikeuksien loukkausten tapauksissa, joissa on käytetty oikeudettomasti kerättyä dataa (esim. algoritmien koulutustarkoituksessa).

Toisaalta kannustimena toimii myös yritysvastuu ja kasvavat vastuullisuustavoitteet, jotka on myös kirjattu yritysten strategioihin ja arvoihin, sekä tulevaisuudessa yhä enemmän vaikuttava sääntely, kuten tekoälylaki EU AI Act.

Neljä riskiluokkaa

Tekoälylaki ryhmittelee tekoälysovellukset neljään riskiluokkaan, joita säännellään ennalta määrätyillä sääntelyn keinoilla. Toistaiseksi (olennaisten) vaatimusten määrittely on ollut hieman epäselvää, ja helpoin tapa noudattaa määräyksiä onkin ollut hyödyntää eurooppalaisten standardointielimien laatimia teknisiä standardeja:

  1. Sovellukset, joiden katsotaan aiheuttavan "ei-hyväksyttävän riskin" (esim. sosiaalinen pisteytys ja tietyntyyppiset biometriset tiedot), on kielletty.
  2. "Suuren riskin" sovelluksille, jotka muodostavat uhan turvallisuudelle tai perusoikeuksille (esim. lainvalvonta) asetetaan tiettyjä esi- ja jälkivaatimuksia käyttöönoton suhteen.
  3. "Rajoitetun riskin" sovelluksille (esim. chatbotit) asetetaan vaatimuksia läpinäkyvyyden suhteen.
  4. Suurin osa tekoälyn käytöstä on kuitenkin luokiteltu "minimaalisen riskin" sovelluksiksi ja niihin sovelletaankin vain vapaaehtoisia toimenpiteitä.

Tekoälyn hallinnalla onkin eniten merkitystä siellä, missä päätökset vaikuttavat vahvasti ihmisten elämään, tai vaikutukset ovat kiistanalaisimpia (esim. tekoäly rekrytoinnissa). Vaikka algoritmit voivat ainakin periaatteessa tarjota neutraalin päätöksentekoalustan, ne eivät poista inhimillistä epäilystä, jos ihmiset ovat tyytymättömiä tulokseen. Hyvällä hallintomekanismilla voidaan kuitenkin vähentää epäilystä malleja kohtaan ja osoittaa, että myös inhimillistä puolta on mietitty ja siihen on panostettu.

Tekoälyn hallinnan tulisi olla etusijalla kaikissa organisaatioissa 

Kun katsomme generatiivisen tekoälyn mahdollisuuksia, tekoälyn hallinnan tulisi olla etusijalla kaikissa organisaatioissa.

Generatiivista tekoälyä käytettäessä tulisi aina suorittaa myös ihmisten arvioimia testi-iteraatioita, ja selvittää tuottaako tietty malli tarkkoja tuloksia ja puolueetonta sisältöä. Lisäksi tulisi pohtia, miten malli käsittelee erilaisia käyttötapauspyyntöjä, ja miten malli reagoi tiettyihin populaation alaryhmiin. Näin voidaan välttää tilanteet, joissa malli saattaisi syrjiä joitain ryhmiä, sekä ohjata kyselyt ihmiselle, jos mallin luotettavuus laskee tietyn tason alle. 

Tekoälyn hallinnan avulla tulisi myös selkeyttää miten tulee toimia, kun organisaatiot esimerkiksi tallentavat generatiivista tekoälydataa tai -malleja muille yrityksille kuuluville palvelimille. Tällaisissa tapauksissa organisaatiot eivät välttämättä aina pysty hakemaan tai poistamaan arkaluontoisia tietoja pyynnöstä tai ajoissa, mikä saattaa tehdä niistä tietosuojalakien, kuten GDPR:n, vastaisia. Myös sisäisesti käytettävissä malleissa on pystyttävä varmentamaan, ettei esimerkiksi henkilötietoja vuoda käytettäväksi ulkoisesti generatiivisten mallien koulutuksessa (kun monia generatiivisia malleja ei ole mahdollista käyttää on premise -pohjaisesti).

Myös muut ”perinteisten” AI-mallien suorituskyvyn mittarit on hyvä pitää mielessä, mutta samalla tarkkailla myös uusia ”arvoja”, kuten mallin ”hallusinointia” ym. Generatiivisten mallien kvantitatiivinen arviointi on yleisesti haastava tehtävä ja sovelluksen mukaan on käytettävä sovelluskohtaisia mittareita.

Realiteettina kuitenkin on, että mitkään hallintamallit eivät tee tekoälyalgoritmeista yhtään sen helpompia ymmärtää. Selvitys toiminnan logiikasta voi olla yksinkertaisesti liian monimutkainen ymmärtää, etenkin tapauksissa, joissa tekoälyä (algoritmi) pyydetään selittämään, miten se päätyi ratkaisuunsa. Hallinnalla ei esimerkiksi välttämättä pystytä kokonaan poistamaan pahantahtoisen tai epäpätevän ihmisen hallinnan läpi viemää virhettä sovellukseen asti, tai käytettyyn dataan piilotettua pahantahtoista materiaalia (data poisoning).

Haasteista huolimatta hallintaan voi ja kannattaa pyrkiä. Seuraavassa blogitekstissä tulen käsittelemään sitä, miten hallintamallia voi konkreettisesti lähteä miettimään ja luomaan omassa organisaatiossa.


Lisää aiheeseen liittyvää:

Blogi "Tekoäly vai tehoäly? Näin hyödynnät sitä liiketoimintasi kehittämisessä
ChatGPT:n harppaus tietotyöläisten työkaveriksi on saanut monet innostumaan siitä, että askel pysyvämpään tekoälymurrokseen on vihdoin otettu. Kuhina juhlitun mutta ominaisuuksiltaan rajallisen tekoälysovelluksen ympärillä jättää varjoonsa ne moninaiset hyödyt, joita tekoäly voi organisaatioille tuoda – ja tuo jo tänä päivänä.  

Blogi "Kuinka saada organisaation tieto hallintaan?"
Moderni tiedolla johtaminen ei ole pelkästään työkaluja ja raportteja. Pelkkä höylän omistaminen ei tee vielä kenestäkään puuseppää, eivätkä myöskään data-alustat ja raportoinnin työkalut yksin takaa onnea ja autuutta tiedolla johtamisessa. 

Lue Case Oulun Yliopisto
Yksi Oulun yliopiston tärkeistä tehtävistä on tuottaa uutta tietoa tutkimuksen kautta, mutta tieto liittyy olennaisesti myös ison organisaation toiminnan hallintaan – dataa tarvitaan johtamisen tueksi.

Tilaa blogikirjoitukset sähköpostiisi