Tekoäly on läsnä jokapäiväisessä elämässämme ja sitä hyödynnetään jatkuvasti enemmän. Yhä useammat yritykset kääntyvät tekoälyn puoleen parantaakseen asiakaskokemusta, tehokkuutta ja kilpailukykyä. 

Pandemian vaikutukset

Koronapandemian aikana tekoäly ja älykäs automaatio ovat nousseet erityiseen asemaan, kun on kehitetty automaatioratkaisuja tiedon käsittelyyn ja päätöksentekoon, jotta poikkeustilanteen aiheuttamista kysyntäpiikeistä on selvitty. Tekoälyn polttoaineena toimiva data on myös puhuttanut pandemian aikana, erityisesti koronajäljitysratkaisujen ansiosta. Keskusteluiden keskiössä on ollut se, miten henkilökohtaista dataa hallinnoidaan ja mihin sitä käytetään. 

Oikeudelliset näkökulmat

Tietosuojalainsäädännön lisäksi tekoälyn ja automaation yhteydessä nousevat esille useat eri oikeudenalojen teemat. Esimerkiksi vastuukysymykset edellyttävät tekoälyä hyödyntäviltä yrityksiltä huolellista varautumista, myös immateriaalioikeuksiin ja sopimuksiin liittyvät näkökulmat ovat oleellisia. Yrityksiin kohdistuva paine lisätä digitaalisia ratkaisuja ja älykästä automaatiota nopeassa tahdissa huolettaa ja nostaa esiin kysymyksiä ratkaisujen toiminnasta ja niiden hallittavuudesta.

Nämä kysymykset ovat osaltaan vauhdittaneet tekoälysääntelyyn liittyvää keskustelua. EU:ssa on tunnistettu tekoälyä koskevan tarkemman sääntelyn tarve. Euroopan komissio julkaisi tämän vuoden helmikuussa valkoisen kirjan tekoälystä, jossa ehdotetaan muun muassa riskiperusteista lähestymistapaa tekoälyn sääntelyyn. Konkreettisena esimerkkinä on ehdotettu EU-tasoista sääntelyviranomaista perustettavaksi. Ei ole kaukaa haettua, että lähitulevaisuudessa algoritmien vaikutusta pitää arvioida GDPR-vaatimusten tapaan. 

Tekoälyn eettisiä periaatteita kaivataan

Yritysten kannalta ehkä mahdollisia sanktioitakin suurempana riskinä on asiakkaiden ja mahdollisten asiakkaiden luottamuksen menettäminen. Uutisiin joutuminen väärin toimivan algoritmin takia karkottaa asiakkaat varmasti. Tätä riskiä voi hallita pitämällä lailliset ja eettiset periaatteet selkeinä mielessä tekoälykehittämisessä alusta lähtien.

Monet yritykset ja organisaatiot kehittävät tekoälyn eettisiä periaatteita. Haasteena on ollut yleisen tekoälyn riskienhallintaviitekehyksen puuttuminen. Näitä on kehitteillä, mutta ne ovat vielä akateemisella tasolla tai kokeiluvaiheessa.

KPMG:n AI in Control -viitekehys

Me tuemme asiakkaitamme tekoälyn ja älykkään automaation riskien tunnistamisessa ja hallinnassa. Hyödynnämme tässä työssä omaa AI in Control -viitekehystämme, joka tarjoaa vakiintuneen menetelmän datatieteilijöiden ja yrityksen johdon välisen kuilun yhteen kuromiseksi. AI in Control perustuu neljään periaatteeseen, joita tekoälyratkaisujen tulee noudattaa: selitettävyys (explainability), reiluus (fairness), eheys (integrity) ja kestävyys (resilience).

AI in Control sisältää laajan kontrolliviitekehyksen, joka perustuu näihin periaatteisiin ja toisaalta uusiin tekoälyn tuomiin riskeihin. Tätä viitekehystä vasten olemme tarkastaneet ja kehittäneet asiakkaidemme älykkään automaation ja tekoälyn ympäristöjä laajasti. Viitekehyksen laajuutta kuvaa, että kontrollit jakaantuvat lähes pariin kymmeneen alueeseen ja niillä voi hallita kymmeniä erilaisia tekoälyn tuomia riskejä. Esimerkiksi hallintamalli on keskeinen tekijä, eikä useinkaan kovinkaan kehittynyt, koska ratkaisuja on kehitetty pilotoimalla ja pistemäisesti.

Menetelmämme mahdollistaa myös algoritmien tarkastamisen. Tyypillisesti asiakkaamme tarpeena on saada varmuutta, että kriittiset algoritmit toimivat kuten pitää. Näillä on merkitystä maineen lisäksi myös liiketoiminnallisesti. Usein myös halutaan varmistaa, että asioita tehdään oikein jo alusta alkaen tai jopa benchmarkata omaa tekemistä paikallisiin ja globaaleihin verrokkeihin.

Älykkään automaation -tiimimme kertoo mielellään lisää, ollaan yhteydessä!

Lisätietoja

Jere Lehtioksa

+358406351136

etunimi.sukunimi@kpmg.fi