Kaltaiseni bisnesväki on tottunut toistamaan mantraa datan tärkeydestä. Osittain tästä syystä tekoäly usein rinnastetaan data-analytiikkaan ja suurten datamassojen (big data) hyödyntämiseen: ”tekoäly syö dataa”, ”data on uusi öljy”, data sitä ja data tätä.

Ajattelutapa on ongelmallinen kahdesta syystä. Ensinnäkin se rajoittaa ajatteluamme tekoälyn mahdollisista soveltamiskohteista. Tekoäly ja analytiikka eivät ole sama asia, ja tekoälyllä voidaan tehdä paljon muutakin kuin analysoida suuria datamassoja. Toinen, paljon suurempi haaste on se, että isolle osalle sovelluskohteista ei yksinkertaisesti löydy valmiita hyödynnettävissä olevia datamassoja. Data pitää kerätä manuaalisesti, mikä on paitsi hidasta myös kallista. Tämä saa meidät uskomaan, ettei tekoälyä voida laajamittaisesti soveltaa ilman kalliin datainfrastruktuurin rakentamista.

Vallitseva datakeskeinen keskustelu ei ole sattumaa: tekoälyn rahallisesti merkittävimmät sovellukset ovat tulleet paljon dataa käsitteleviltä kuluttajabisneksen alueilta. Paljon dataa vaativat tekoälymenetelmät eivät kuitenkaan ole tehokas ratkaisu moniin teollisuuden, yritysten tai organisaatioiden ongelmiin. Veikkaan, että datakeskeinen keskustelu alkaa taantua ja suurin hype lieneekin jo takana päin. Kun kysytään ”Mitä seuraavaksi?”, katseet kääntyvät automatisaatioon, jonka perusteena on pieni data, ei suuret datamassat.

Kun kysytään ”Mitä seuraavaksi?”, katseet kääntyvät automatisaatioon, jonka perusteena on pieni data.

Tämä uudentyyppinen B2B-ongelmiin soveltuva tekoäly ei ole mikään yksittäinen algoritmi, vaan kokoelma erilaisia menetelmiä. Isoja teemoja ovat tavoitelähtöisyys ja vuorovaikutus ihmisten kanssa. Nykyisissä ratkaisuissa tekoälylle määritellään tyypillisesti mitä ja miten asiat tehdään. Tämä on mahdollista, jos on paljon dataa kaikista erilaisista tilanteista, mutta tekoälyllä ei silloin ole mahdollisuutta reagoida uusiin ja yllättäviin tilanteisiin. Tämä on suurten datamassojen paradoksi: meidän pitäisi pystyä varautumaan datalla mahdollisimman yllättäviin tilanteisiin, mutta samalla toivomme operatiivisesta näkökulmasta, ettei meillä olisi lainkaan dataa esimerkiksi voimalaitoksen vakavasta virhetilasta.

Käytännön hankkeissa uudentyyppinen tekoäly tarkoittaa, että huomio kiinnittyy ensin tavoitteisiin ja vuorovaikutukseen ja vasta sitten dataan. Dataa ei tarvita paljon, sitä ei tarvitse kerätä ennakkoon ja järjestelmä voi itse sopeutua yllättäviin tilanteisiin. Tällöin olemassa olevia malleja ei tarvitse jatkuvasti päivittää eikä dataa ”siivota melulta”.

Ehkä merkittävin hyöty on siinä, että tavoitteista lähtevä suunnittelu mahdollistaa hajautetun tekoälyn, jota voi lähteä rakentamaan pala kerrallaan. Esimerkiksi tuotantolinjoilla automatisointi voidaan aloittaa toimilaite kerrallaan, eikä kaikkea dataa tarvitse kerätä yhteen keskusvarastoon. Kun linjastoon lisätään uusia automatisoituja toimilaitteita, ne voivat tarjota oman datansa muiden laitteiden käyttöön, jolloin jokainen uusi älykäs laite hyötyy aiemmista älykkäistä laitteista. Näin saavutetaan samantyyppinen verkostovaikutus, joka on mahdollistanut sosiaalisen median vallankumouksen: jokainen käyttäjä hyödyttää muita käyttäjiä.

Pienen datan ongelmiin soveltuva tekoäly ei ole vielä valmista, mutta sen kehittäminen on täydessä vauhdissa. Suomelle tämä on erityisen merkittävä asia, koska elinkeinoelämämme nojaa vahvasti B2B-puoleen ja suomalainen tekoälytutkimus on maailman kärkeä juuri pieneen dataan ja B2B-ongelmiin soveltuvan tekoälyn kehittämisessä. Myös organisaatioille on helpompaa aloittaa hankkeista, joissa small data -tekoälyä sovelletaan ketterästi ja nopeasti yksittäisten ongelmien ratkaisuun. Hyödyt ovat nähtävissä heti, ja verkostovaikutuksen takia seuraavien hankkeiden tekeminen muuttuu jatkuvasti kannattavammaksi.

Alexander Törnroth on Suomen Tekoälykiihdyttämön toiminnanjohtaja

Kirjoitus perustuu Curious AI:n toimitusjohtajan Harri Valpolan kanssa käytyyn kirjevaihtoon.

 

Kirjoittaja: polte

Numero: 2/2019