Skip to content

Päättäjän muistilista tekoälyavusteiseen päätöksentekoon

Kuuluuko työnkuvaasi kompleksisten päätösten tekeminen? Oletko useammankin kerran visioinut tekoälyyn pohjautuvaa helpotusta haastaviin kysymyksiin? Ajavathan autotkin jo pian itse – miksi ei siis tekoäly voisi auttaa meitä vielä enemmän? Tiedätkö mitä kokonaisuudessa pitäisi huomioida etiikan näkökulmasta?

Tekoälyn tullessa yhä suuremmaksi osaksi yhteiskuntaa myös aiheeseen liittyvät eettiset kysymykset ovat nousseet puheenaiheeksi niin tutkimuksessa kuin julkisessa keskustelussa. Vuonna 2018 Työ- ja elinkeinoministeriö haastoi yrityksiä laatimaan eettiset periaatteet tekoälyn hyödyntämiselle. Tuolloin myös Digia määritteli omansa. Myös Euroopan Unionissa on tehty mietintöä liittyen tekoälyyn, robotiikkaan ja niihin liittyvien teknologioiden etiikkaan.

Tekoälyyn liittyy monia eettisiä kysymyksiä. Useimmille organisaatioille relevantit kysymykset liittyvät järjestelmiin ja prosesseihin, joissa voitaisiin ainakin periaatteessa soveltaa tekoälyä osana päätöksentekoa. Asia siis liittyy yleisesti ottaen päätöksenteon automatisointiin.

Tutkimuksissa on viime vuosina kasvanut machine learning fairness -ala. Tällä alalla tutkitaan sitä, millä tavoin ja mistä syistä koneoppimista hyödyntävät järjestelmät voivat olla syrjiviä tai epäreiluja, ja myös sitä, mitä on tehtävissä näiden eettisten ongelmien korjaamiseksi.

Mitä päättäjien sitten tulisi ymmärtää tekoälyavusteisesta päätöksenteosta ja sen etiikasta? Tämä muistilista on luotu machine learning fairness -tutkimuskirjallisuuden näkökulmasta, ei niinkään lain tai regulaatioiden näkökulmasta.

Huomioksi vielä, että käytän sanaa tekoäly sen laajassa merkityksessä ja sanaa tekoälyjärjestelmä tarkoittamaan tietoteknistä järjestelmää, jossa jollakin tavalla sovelletaan tekoälymenetelmiä. Raja tekoälyjärjestelmien ja muiden tietoteknisten järjestelmien välillä on häilyvä, mutta eettiset kysymykset voivat silti olla hyvin samankaltaisia.

Huomioi nämä asiat tekoälyavusteisessa päätöksenteossa

1. Tekoälyä kannattaa hahmottaa matematiikan tai tietotekniikan kautta

Nykyisellä teknologian tasolla tekoälyä hyödyntäviä järjestelmiä ei kannata ajatella ihmisenkaltaisiksi olennoiksi. Mieluummin niitä kannattaa nähdä tietoteknisinä järjestelminä, joissa sovelletaan enemmän erilaista matematiikkaa kuin perinteisemmissä järjestelmissä.

2. Tekoälyllä ei voi olla moraalista vastuuta

Edellisen kohdan takia tekoälyjärjestelmät eivät voi olla moraalisia toimijoita, joten niillä ei voi olla myöskään moraalista vastuuta. Vastuu on ihmisillä.

3. Tekoäly voi tuottaa syrjiviä tai epäreiluja tuloksia

Vuonna 2018 uutisoitiin, että Amazon oli kehittänyt tekoälytyökalua rekrytointia varten. Tavoitteena oli todennäköisesti luoda järjestelmä, jolle voisi syöttää suuren määrän työhakemuksia, joista tekoäly valitsisi parhaat. Tämä luonnollisesti voisi säästää paljon rekrytointiin kuluvaa työaikaa.

Hanke kuitenkin hyllytettiin, koska tulokset olivat syrjiviä naisia kohtaan. Syy syrjivälle mallille mahdollisesti oli, että Amazon käytti työntekijädataansa, jossa oli enemmän miehiä kuin naisia. Järjestelmällä todennäköisesti haettiin työntekijöiden kaltaisia työnhakijoita, jolloin miesten suurempi edustus datassa johti siihen, että hakemuksia, joissa oli naiseuteen viittaavia sanoja tai ilmaisuja, arvotettiin huonommaksi. Tekoälyn hyödyntämisessä yksi olennaisimmista asioista on ymmärtää, miten käytetyn datan sisältö ja laatu suhtautuvat haluttuun tavoitteeseen.

4. Tekoäly voi syrjiä ihmisryhmää silloinkin, kun data ei sisällä eksplisiittistä tietoa ihmisryhmään kuulumisesta

Tekoälymenetelmät ovat tehokkaita oppimaan erilaisia suhteita ja korrelaatioita datasta. Tällöin, jos jokin lähtödatassa oleva tieto on yhteydessä johonkin ihmisryhmään kuulumisen kanssa, tulokset voivat olla ihmisryhmää syrjiviä, vaikka data ei sisältäisi tietoa ryhmästä suoraan.

Esimerkkinä ilmiöstä voisi olla se, että monissa valtioissa kansalaisten etnisyys ei ole jakautunut maantieteellisesti tasaisesti. Tällöin postinumeron käyttäminen osana syötedataa voi johtaa siihen, että koneoppimismalli voi ”oppia syrjimään” jotakin ihmisryhmää.

5. Ei ole olemassa yhtä yleistä määritelmää syrjinnälle tai reiluudelle

Alueen tutkimuskirjallisuudessa ei olla päädytty mihinkään tiettyyn määritelmään reiluudelle, vaan määritelmiä ja mittareita on keksitty useita. Yhtenä esimerkkinä mittarista voisi olla IBM:n palvelun käyttämä mittari, joka toimii siten, että jokin luokittelutulos määritetään suotuisaksi tulokseksi, ja lasketaan, mikä on ihmisryhmän X ja referenssi-ihmisryhmän suotuisten luokittelutulosten osuuksien suhde, esim. työnhaussa (kuinka suuri osa hakeneista naisista rekrytointiin) / (kuinka suuri osa hakeneista miehistä rekrytointiin). Jos tämä suhdeluku on arvoltaan noin yksi, on kyseessä reilu luokittelu kyseisen mittarin mukaan.

Edellistä määritelmää ei kuitenkaan kannata soveltaa joka tilanteessa, sillä esimerkiksi rintasyöpää diagnosoidessa ei kannata pitää huolta siitä, että positiivisten diagnoosien suhde on sama miehillä ja naisilla. Tämä esimerkki myös selventää, että joissakin tapauksissa, ainakin lääketieteellisessä kontekstissa, voi olla hyväksi käyttää koneoppimismallin syötteenä tietoa ihmisryhmästä.

Lisää esimerkkejä reiluuden määritelmistä löytyy artikkelista Fairness Definitions Explained ja luennosta 21 fairness definitions and their politics.

6. Reiluusmittarit voivat olla ristiriidassa keskenään ja suhteessa tavoitteeseen

Joidenkin tutkimuskirjallisuudessa määriteltyjen reiluusmittareiden välillä on sellainen matemaattinen suhde, että on mahdotonta olla reilu samaan aikaan kaikkien kyseisten mittarien mukaan. Tämä tarkoittaa sitä, että kussakin kontekstissa on tärkeää miettiä erikseen, miten päästään eettiseen vaihtoehtoon, ja sen jälkeen valita sopiva mittari tai useampia.

On myös matemaattisesti mahdollista, että paras liiketoiminnallinen voitto saavutetaan, jos ns. reilut mittarit sivuutetaan. Tämä voi kuitenkin pidemmällä aikavälillä aiheuttaa yritykselle negatiivista julkisuutta, jolloin mainetappio näkyy myös taloudessa.
 

Päätöksenteon reiluus – etiikka vaakakupissa

Edellä mainitut reiluuden määritelmiin ja mittareihin liittyvät huomiot eivät päde ainoastaan tekoälyjärjestelmille vaan myös kaikenlaisille päätöksentekijöille, myös ihmisille.

Suuri osa alan tutkimuskirjallisuudesta ei rajoitu tarkastelemaan reiluutta tiettyjen tekoälymenetelmien näkökulmasta, vaan tulokset pätevät yleisesti, kun tehdään esimerkiksi luokittelua. Tämä tarkoittaa sitä, että esiin nousevat eettiset kysymykset pätevät myös silloin, kun ihmiset tekevät päätöksiä.

Ihmiset eivät myöskään välttämättä tee mahdollisimman eettisiä päätöksiä. Carnegie Mellon –yliopiston Rayid Ghani on sitä mieltä, että kun arvioidaan tekoälyavusteisen päätöksenteon eettisyyttä, kannattaa pyrkiä vertaamaan tuloksia ihmisten tekemiin päätöksiin ennen kuin hylkää tekoälyn käyttämisen. Hän kertoo kollegoidensa kanssa tehneen havaintoja tapauksista, joissa tekoälyn päätökset olivat vähemmän vinoutuneita kuin ihmisten päätökset.

Tekoälyn etiikassa on kyse samanlaisista asioista, mitä filosofit, lainoppineet ja muut ajattelijat ovat pohtineet tuhansien vuosien ajan. Minkä vuoksi aiheesta syntyy silti uutta tutkimuskirjallisuutta? Harvard Business Review:n artikkelissa "How Machine Learning Pushes Us to Define Fairness" argumentoidaan, että tekoälyn soveltaminen pakottaa ajattelemaan esimerkiksi reiluuden käsitettä hyvin konkreettisesti ja tarkasti. Tietokonejärjestelmät noudattavat orjallisesti koodiaan, mikä pakottaa kirjoittamaan järjestelmän toiminnan täsmällisesti. Itse ajattelen myös asiaan vaikuttavan, että nykyään monista prosesseista ja henkilöistä saadaan enemmän dataa, mikä mahdollistaa prosessien reiluuden analysoinnin.

Päättäjät eivät voi tuudittautua siihen, että tekoälyjärjestelmät toimivat objektiivisesti, mutta myöskään eettisiltä kysymyksiltä ei voi välttyä silloin, kun prosesseja ja päätöksentekoa suorittaa ihminen. Parhaimmassa tapauksessa voimme käyttää dataa ja tekoälyä paremman tulevaisuuden rakentamiseen sekä eettisempien päätösten tekemiseen.

Päättäjän muistilista tekoälyavusteiseen päätöksentekoon:
  1. Näe tekoäly matematiikan tai tietotekniikan – älä ihmisen silmin
  2. Moraalinen vastuu päätöksistä on aina ihmisellä
  3. Tekoäly voi ilman eettistä tarkastelua tuottaa syrjiviä tai epäreiluja tuloksia
  4. Tekoäly voi syrjiä ihmisryhmää silloinkin, kun data ei sisällä eksplisiittistä tietoa ihmisryhmään kuulumisesta
  5. Ei ole olemassa yhtä yleistä määritelmää syrjinnälle tai reiluudelle
  6. Tavoitteet ja reiluusmittarit voivat olla ristiriidassa keskenään

 

Tilaa blogikirjoitukset sähköpostiisi