Tekoäly (AI) ja etiikka – mitä pitää ottaa huomioon?
Eettiset riskit ovat nousseet yhdeksi tärkeimmistä tekoälyn käyttöönottoon liittyvistä huolenaiheista. Avaamme tässä blogissa niitä huomioon otettavia ongelmia ja riskejä, joita tekoälyyn ja etiikkaan liittyy sekä annamme vinkkejä tekoälyn etiikkaohjelman rakentamiseen.
Eettiset riskit ovat nousseet yhdeksi tärkeimmistä tekoälyn käyttöönottoon liittyvistä huolenaiheista. Luotettavan tekoälykehyksen luominen tarkoittaa sellaisen käytännön rakentamista, joka minimoi tahallisia ja tahattomia haittoja samalla kun se mukautuu ihmisten/yrityksen arvojärjestelmään. Viitekehyksen onnistuminen edellyttää eettisten periaatteiden ymmärtämistä koko organisaation tasolla, selkeän vastuun jakamista ja olemassa olevien riskien kokonaisvaltaista arviointia.
Tekoälyn yleistyessä myös eettiset ongelmat on huomioitava
Yritykset hyödyntävät jatkuvasti enemmän dataa ja tekoälyä luodakseen yhä älykkäämpiä ja autonomisempia ratkaisuja, mutta samalla lisääntyvät myös sääntelyyn ja oikeudellisiin kysymyksiin liittyvät riskit. Joten myös tekoälyn eettisiin riskeihin on alettu kiinnittää enemmän huomiota. Massiiviset tietokannat, tietojen analysointi ja prosessointi informaatioksi sekä kattava datan käyttö koneoppimismallien koulutuksessa voi tuoda yritysten tietoon tarkoitusta enemmän ja syvällisempää tietoa kuin oli alun perin suunniteltu ja paljastaa yrityksistä tai käyttäjistä tarpeettoman yksityiskohtaista tietoa (esim. askelmittarin datasta pystyy havaitsemaan mahdollisuuden Alzheimerin tautiin jo vuosia ennen huomattavia oireita ja digitaalisesta datasta voi löytää persoonallisia käyttäytymismalleja).
Monet etenkin suuremmat yritykset, mutta yhä enemmän myös pk-yritykset ja jopa edelläkävijöinä startupit, ovat alkaneet koota tekoälyn eettisyyttä tutkivia ja ongelmia pohtivia tiimejä. Tämä on tapahtunut osittain pakon edessä, mutta aihe on myös alkanut levitä yhä laajemmin jokapäiväiseen keskusteluun monilla toimialoilla. Keskustelun yhä yleistyessä tulee tekoälyä kehittävien ja sitä käyttävien yritysten kiinnittää huomiota siihen, miten yrityksessä on toteutettu tekoäly- ja dataprosessien eettinen pohdinta tai hintana voi olla negatiivisia maineellisia, oikeudellisia tai taloudellisia vaikutuksia. Epäonnistuminen tekoälyn ja datan etiikan toteuttamisessa voi myös johtaa resurssien hukkaamiseen, tuotekehityksen ja käyttöönoton tehottomuuteen ja jopa kyvyttömyyteen käyttää tarvittavaa dataa tekoälymallien kouluttamisessa.
Lue myös blogi: Dataekosysteemien liiketoimintamalleista ja etiikasta
Proaktiivista riskienhallintaa
Monissa yrityksissä tekoälyyn liittyvät eettiset keskustelut ovat edelleen projektikohtaisia, tai jopa algoritmikohtaisia, eikä yleisiä yrityskohtaisia säännöstöjä ole vielä useinkaan olemassa. Ilman selkeää käytäntöä eettisten riskien tunnistamiseen ja arvioimiseen on vaarana, että tiimit päätyvät joko jättämään riskit huomiotta tai he yrittävät ratkaista ongelmat vasta niiden tullessa esiin tai toivovat, että mahdolliset ongelmat eivät nouse tarkastelussa esille. Kun mukaan otetaan vielä kolmannet osapuolet ja mahdolliset alihankkijat, tilanne muuttuu entistäkin monimutkaisemmaksi.
Yritykset tarvitsevat siis proaktiivisen suunnitelman eettisten riskien vähentämiseksi: kuinka voidaan käyttää dataa ja kehittää tekoälytuotteita joutumatta eettisiin ongelmiin matkan varrella. Muiden riskinhallintastrategioiden tapaan operatiivisen lähestymistavan on tunnistettava järjestelmällisesti ja kattavasti eettiset riskit koko organisaatiossa, ei vain teknisessä kehityksessä. Tekoälyn eettisten linjojen tulisikin kuulua koko yrityksen strategiaan ja sitä pitäisi pohtia kaikkien sidosryhmien kesken, eikä jättää vain teknisten ihmisten ratkaistavaksi.
Eettisen tekoälyn tiekartat näyttämään suuntaa
Yrityksen sisällä toimiva eettinen neuvosto, työryhmät tai Chief AI Ethics Officer, voi keskitetysti koota toimintatapoja ja impact statement:eja ja tarjota siten keinoja yhtenäiseen linjaan ja eettisen yhtenäisyyden varmistamiseen ja valvontaan. Eettisen tekoälyn tiekartan haasteena voi myös olla selkeän ja kattavan etenemissuunnitelman laatiminen sitä käyttäville ja niille ryhmille, joihin sen pohdinta vaikuttaa. Tiekartan tarkoituksena ei ole vain ymmärtää, milloin ja miten tekoälyä käytetään, vaan myös auttaa parantamaan tekoälyn asiakaskohtaisia, taloudellisia ja sosiaalisia seurauksia koskevaa tarkastelutaitoa.
Ennen tekoälyteknologian käyttöönottoa asiantuntijoiden on mietittävä suunnitelman mukaisesti mahdolliset eettiset riskiskenaariot. Tämä arviointi voi auttaa vahvistamaan ymmärrystä mahdollisista nousevista ongelmista ja proaktiivisesti tehostaa valvontatoimia, jotka on otettava huomioon ennen tekoälysovelluksen rakentamisen aloittamista tai datan syvällistä hyödyntämistä, tai ne voivat jopa estää projektin jatkamisen tilanteessa, jossa laillisen tai maineellisen haitan riski voi olla liian suuri. Tällaiset järjestelmäriskien arvioinnit eivät ainoastaan suojele yritystä vaan myös datan lähteinä olevia ihmisiä ja yrityksiä sekä heidän perusoikeuksiansa ja lisäävät uusien teknologioiden uskottavuutta ja hyväksyntää, kun sovelluksissa käytettävien mallien ja datan hyväksyttävyys voidaan esittää uskottavasti ja perustellusti, ei vain hämyisenä black box:ina.
Tutustu myös Digian tekoälyn eettisiin periaatteisiin
Tekoälyn etiikkaohjelman viisi askelta
Eettisen tekoälyn toteuttaminen koko järjestelmän elinkaaren ajan edellyttää teknisten ja ei-teknisten menetelmien yhdistelmää. Teknisiä menetelmiä ovat haitallisten käytäntöjen havainnointikyvyn rakentaminen ja etukäteen pohdittujen pelisääntöjen määrittäminen järjestelmän toimivuudelle. Ei-teknisiä menetelmiä ovat eettisiä perusoikeuksia, havaittavuutta ja haittojen ehkäisyä koskevien sisäisten sääntöjen ja standardien dokumentointi sekä sisäisten ja ulkoisten eettisten hallintojärjestelmien perustaminen.
Tekoälyn etiikka ei tule vain yhtenä valmiina kaikille sopivana ratkaisuna. Koska yritysten arvot vaihtelevat kymmenillä toimialoilla, datan ja tekoälyn etiikkaohjelma on räätälöitävä yrityksen omien arvojen ja toimialan liiketoiminta- ja sääntelytarpeiden mukaan.
Alla on viisi askelta, jotka auttavat pääsemään kohti räätälöityä, skaalautuvaa ja kestävää datan ja tekoälyn etiikkaohjelman rakentamista:
- Hyödynnä jo valmiiksi olevia yrityksen sisäisiä voimavaroja, kuten privacy-advokaatteja, jotka voivat toimia myös etiikan lähettiläinä
- Seuraa regulaatiota ja kouluta johtoa sekä muuta organisaatiota
- Arvioi organisaation eettistä hallintoa, menettelyä, työnkulkua ja olemassa olevia ohjeita tarpeiden määrittämiseksi ja tekoälyn eettisen strategian arvioimiseksi
- Tee arvio käynnissä olevista ja tulevista projekteista ja tuotekehityksistä, jotta niiden eettisen analyysin tarpeet voidaan määrittää
- Arvioi organisaatiokulttuuria ja -taitoja sekä määritä eettisen koulutuksen tarpeet (tekoälyn) johtajille, kehittäjille ja käyttöönottajille
Lopuksi on myös välttämätöntä määritellä selkeästi roolit ja vastuut organisaatiossa, jotta voidaan ohjata eettisiä prosesseja ja rakentaa, toteuttaa ja valvoa luotettavaa tekoälyä. Prosessin onnistumisen ja uskottavuuden sekä parhaan tuloksen takaamiseksi on siihen saatava mukaan koko yrityksen kollektiivinen poikkitieteellinen älykkyys, ei vain tekninen tietämys.
Lähteet:
https://news.bloomberglaw.com/tech-and-telecom-law/five-ways-businesses-can-make-ai-more-ethical
https://www.weforum.org/agenda/2021/12/ai-artificial-intelligence-robots/
https://ieai.mcts.tum.de/wp-content/uploads/2020/10/Research-Brief_WhyAIEthicsMatter_Final-1.pdf
https://www.sciencedirect.com/science/article/pii/S2666389921001574
Tilaa blogikirjoitukset sähköpostiisi