Mikä ihmeen tekoäly?

Teknologiajättien (Google, FB, Amazon) menestystarinat sekä julkistukset mm. itseään ohjaavista autoista ja lautapelimestarien kukistumisesta yksi toisensa jälkeen ovat rohkaisseet lukuisia perinteisiä toimijoita tarkastelemaan tekoälyn hyödyntämistä osana omia arvonluontiprosessejaan.

Lisääntyneen kiinnostuksen olen huomannut yritysten suunnalta tulevien tekoälyn soveltamiseen liittyvien yhteydenottojen kasvuna.

Vaikka otanta onkin pieni (subjektiivinen kokemus) niin samaa olen kuullut muiltakin tekoälyn parissa päivittäin työskenteleviltä.

Viesti yrityksien suunnalta on selvä: tätä junaa ei haluta missata.

Tässä kirjoituksessa yritän tiivistää lukuisat käymäni keskustelut monistuvampaan, digitaaliseen muotoon, jotta useampi tekoälyn mahdollisuuksista kiinnostunut saisi tukea oman ymmärryksensä kehittämiseksi. Tavoitteenani on luoda yhteistä merkityskenttää ja kaventaa kuilua eturivin tekoälytutkijoiden ja liike-elämän välillä.

Liitän kirjoitukseen parhaani mukaan materiaaleja, joita liiketoiminnan ja prosessien kehittäjät voivat hyödyntää referenssipisteinä keskustellessaan tekoälystä muiden tiiminsä tai johtoryhmän jäsenien kanssa.

Mitä tekoäly on?

Tekoälystä puhuttaessa tarkoitetaan tietokoneita ja vielä tarkemmin määriteltynä algoritmeistä koostuvia ohjelmistoja, jotka kykenevät suoriutumaan tehtävistä, joiden on perinteisesti ajateltu vaativan kognitiivisia taitoja sekä kykyä soveltaa oppimaansa — toisin sanottuna älykkyyttä. Tällaisia tehtäviä ovat esimerkiksi päättely, päätöksenteko, oppiminen, ennakointi, näkö, kuulo tai vaikka kielten ymmärrystä vaativa kommunikointi.

Tekoälyä on kahdenlaista, heikkoa (weak/narrow) ja vahvaa (strong). Heikolla tekoälyllä tarkoitetaan yksittäisissä tehtävissä taitavasti, toisinaan jopa yli-inhimilliseen suoritukseen kykeneviä algoritmeja. Vahvalla tekoälyllä tarkoitetaan tieteiselokuvista tuttua yli-inhimilliset kyvyt omaavaa, itsenäisesti monipuolisista tehtävistä suoriutuvaa algoritmia. Vahvan tekoälyn kehittämisessä varsinaisia läpimurtoja ei ole vielä saavutettu ja vaikka teknologian kehittymistä on vaikea ennustaa, yhdyn valtaosan tutkijoiden mielipiteeseen, että ihmisen kaltaista yleistä tekoälyä (AGI), puhumattakaan meidät kaikessa päihittävää algoritmipohjaista superälykkyyttä (ASI) ei tulla näkemään vielä moneen kymmeneen vuoteen.

Heikkoon tekoälyyn perustuva pikkuapuri kykenee yksittäisissä tehtävissä jopa yli-inhimillisiin suorituksiin

Vaikka terminaattoria saadaankin vielä hetki odottaa, ei se kuitenkaan tarkoita, että tietyissä rajatuissa, vaikkakin haastavissa tehtävissä (esim. pahanlaatuisten kasvainten tunnistaminen magneettikuvista) algoritmit eivät yltäisi ihmisen tasolle ja ylikin — päinvastoin.

Tämän vuosikymmenen aikana tapahtuneen edistyksen myötä tutkijat ja kehittäjät ovat oppineet hyödyntämään näitä heikkoon tekoälyyn perustuvia pikkuapureita lukuisissa eri tehtävissä alati kiihtyvään tahtiin.

Viime vuosina kiihtyneen “tekoälyboomin” taustalla ovat edistysaskeleet heikon tekoälyn saralla. Menetelmä edistyksen taustalla on tilastolliseen mallintamiseen perustuva koneoppiminen.

Koneoppiminen

Koneoppiminen on tekoälyn alalaji, jolla tarkoitetaan kuten myös tekoälyllä, ohjelmistoja, jotka kykenevät suorittamaan tehtäviä, jotka on perinteisesti ajateltu vaativan älykkyyttä, mutta sillä lisäyksellä, että

ohjelmisto ei ole eksplisiittisesti ohjelmoitu vaan se oppii

ja harjoituksen myötä kykenee suoriutumaan annetusta tehtävästä, jopa paremmin kuin ihminen.

Joku saattaa tilastotieteen kurssilta muistaa lineaarisen regression kaavan y=w*x+ b. Sen sijaan, että ohjelmoija yrittäisi keksiä ennustuksissa käytettävän “oikean” kertoimen w, ohjelmisto oppii sen datasta hyödyntäen tilastollisia mallintamismenetelmiä sekä matemaattista optimointia.

Deep Learning — The Past, Present and Future of Artificial Intelligence

Oppiminen ei tapahdu itsestään, vaan kehittyäkseen koneoppimisalgoritmi tarvitsee opetusaineistoa eli dataa. Mitä enemmän korkealaatuista dataa algoritmille syötetään, sitä paremmaksi se oppii. Digitaalisen datan määrän kasvu ja saatavuus ovatkin keskeisimpiä syitä tekoälyn toisen tulemisen takana.

Oppimisprosessia voi myös ajatella matemaattisena haarukointina tai lasten suosimana “kylmenee — kuumenee” -leikkinä.

Jokaisella uudella opetusaineiston informaatiopisteellä lapsi — koneoppimisen tapauksessa algoritmi — parantaa todennäköisyyttä osua oikeaan. Informaatiopisteiden lisääntyessä algoritmi oppii löytämään tarkempia vastauksia suuremmalla todennäköisyydellä.

Perinteiset koneoppimismenetelmät (kuten lineaarinen regressio) soveltuvat kuitenkin vain hyvin yksinkertaista todellisuutta kuvaavan datan mallinnukseen ja siksi useissa käytännön sovelluksissa käytetty menetelmä on usein moniulotteisempi.

Nykyään haastavammassa mallinnuksessa käytetäänkin usein syviä neuroverkkoja. Tätä menetelmää kutsutaan syväoppimiseksi (deep learning), jonka soveltaminen valtavien datamassojen analysointiin on tullut mahdolliseksi vasta viime vuosina riittävälle tasolle kasvaneen laskentatehon myötä.

A DARPA Perspective on Artificial Intelligence

Pohjimmiltaan koneoppimisessa on kyse kuitenkin vain kertoimen(-ien) w oppimisesta. Kertoimien avulla algoritmi suorittaa muunnoksia näyteavaruudessa ja etsii datasta samankaltaisuuksia ja erilaisuuksia.

Opittua tietoa opetusaineiston samankaltaisuudesta ja erilaisuudesta algoritmi hyödyntää tehtävän ja datan luonteesta riippuen esimerkiksi ennustamiseen tai luokitteluun.

Lisätieto kaipaaville suosittelen lämpimästi katsomaan A DARPA Perspective on Artificial Intelligence -videon (kesto 15 min).

Sovelluskohteet

Koneoppimista hyödynnetään monissa tehtävissä, joissa toimivan algoritmin määrittely ihmisen toimesta, joko ongelman haastavuudesta tai datan määrästä johtuen on vaikeaa tai jopa mahdotonta. Jokainen meistä on tullut välillisesti hyötyneeksi (ehkä tietämättäänkin) koneoppimisesta mm. Spotifyn suositellessa kappaleita, selaillessaan päivityksiä Facebookissa, etsiessään tietoa Googlesta, katsoessaan huomisen säätiedotusta tai etsiessään nopeinta reittiä navigaattorista — vain mainitakseni muutaman esimerkin.

Predictions, Machine Learning, Data Lakes, and Data Readiness

Tilastolliseen mallinnukseen perustuvat koneoppimisalgoritmit ovat hyviä ennustamaan (prediction) hintojen tai energiankulutuksen kehitystä, luokittelemaan (classification) onko henkilö luottokelpoinen, ryhmittelemään (clustering) asiakkaita segmentteihin sekä tunnistamaan poikkeuksellisia (anomaly detection) tapahtumia ja siten tunnistamaan esimerkiksi hakkerointiyrityksiä tai kohonnutta onnettomuusriskiä.

Uusi vasta hiljattain opittu kyky, ohjeistaminen (prescription) on tehnyt mahdolliseksi, että kone ei pelkästään ennusta “sinulla on kohonnut sydänkohtausriski”, vaan myös automaattisesti määrittää oikeat toimenpiteet “syö tiikerinluujauhoa, lopeta salkkareiden katsominen, käy lenkillä”

Vaikka yksi harjoitettu algoritmi ei vielä sovellukaan useampaan tehtävään, voi se pärjätä yksittäisessä osatehtävässä erinomaisesti.

Olettaen että laadukasta opetusaineistoa on riittävästi saatavilla, voidaan toimivana nyrkkisääntönä mahdollisista koneoppimisen sovelluskohteista pitää:

Kaikki mihin ihminen pystyy alle sekunnissa voidaan ja tullaan aivan lähivuosina koneellistamaan” — Andrew NG

Koneoppimista hyödyntävät kokonaisratkaisut ovat usein yllä mainittujen tilastolliseen mallinnukseen pohjautuvien algoritmien, alle yhden sekunnin tehtävien kombinaatioita ja sarjoja yhdistettynä perinteisempiin sääntöpohjaisiin algoritmeihin (“if this then that”). Näin on mahdollista luoda kompleksisempia kokonaisuuksia ja tehostaa haastaviakin prosessikokonaisuuksia.

Hyvänä esimerkkinä tästä on itseään ohjaavat autot. Algoritmi kerää kameroiden video-syötteestä tietoa ympärillä olevista objekteista kuten toiset autot tai liikennevalon värit, yhdistää tämän tiedon omaan liikkumisnopeuteen sekä tien kuntoon ja osaa säätää sen perusteella vauhtia tai tehdä väistöliikkeen.

Heikkoa tekoälyä ja koneoppimista hyödyntäviä kokonaisratkaisuja suunniteltaessa legot ovat oiva analogia. Pienistä palasista rakennetaan toimiva kokonaisuus.

Monipuolisista sovelluskohteista kiinnostuneita suosittelen lukemaan 40 Ways Deep Learning is Eating the World sekä perehtymään Machine Intelligence 3.0 yrityksiin.

Älykästä liiketoimintaa

Koneoppimiseen perustuvien älykkäiden prosessien ansiosta yrityksillä on mahdollista synnyttää uusia arvoajureita kehittämällä uusia dataintensiivisiä palveluita (esim. Nest — oppiva termostaatti) tai personoimalla tarjoamaa yksilöllisen kuluttajan ylijäämän nappaamiseen (Ryanair ja Tesco).

Liiketoiminnan kannattavuutta on mahdollista parantaa merkittävästi automaation avulla (OTTO — itseään ohjaavat rekat) sekä lieventää riskejä ennakoimalla (koneiden huoltotarve, kohonnut sydänkohtausriski).

Henkilökohtaisesti kiinnostavimmat sovelluskohteet liittyvät sovelluksiin, joissa on samanaikaisesti mahdollista parantaa kannattavuutta lisääntyneen automaation ansiosta, luoda uutta lisäarvoa lopputuotteen kohonneen jalostusarvon myötä sekä vähentää prosessiin liittyviä riskejä tasalaatuisuuden ansiosta.

Herkullisimmat sovelluskohteet ovat usein aiemmin vuosien koulutusta ja kokemusta vaativia asiantuntijatehtäviä. Esimerkiksi radiologien työtaakkaa voidaan helpottaa ZebraMedin kehittämien ohjelmistoradiologien kaltaisilla pikkuapureilla.

Mahdollisuuksia jokaisella toimialalla ja yrityksellä on valtavasti, mutta mistä tulisi lähteä liikkeelle? Kokemukseni perusteella kolme teemaa nousee ylitse muiden.

1. Liiketoiminta edellä

Tekoälyn soveltamiskohteita suunniteltaessa tulee aina lähteä liikkeelle yrityksen olemassa olevista strategisista tavoitteista. Kysy itseltäsi ensin, mitä haluat saavuttaa ja vasta sen jälkeen selvitä miten tekoälystä voisi olla hyötyä kyseisen strategisen päämäärän saavuttamisessa.

Tekoälyn tarjoamia mahdollisuuksia tulee tarkastella yrityksen olemassa olevien strategisten tavoitteiden mahdollistajana.

Asiakasuskollisuuden kasvattaminen (poistuman vähentäminen) koneoppimisen avulla tai virtuaalinen liiketoimintaprosessien ulkoistaminen (VBPO) ohjelmistorobottien (RPA) avulla on perinteisen ulkoistamisen luonnollinen jatkumo digiajassa.

2. Kokeile rohkeasti

Roomaakaan ei rakennettu päivässä. Älykkäät kokonaisprosessit koostuvat pienistä palasista. Lähde keräämään oppia pienistä, liiketoiminnallisiin tavoitteisiin sidotuista kokeiluista. Tärkeää on muistaa, että organisaatio koostuu ihmisistä ja heidät tulee vakuuttaa muutoksen hyödyistä. Tämä tapahtuu saamalla nopeasti johonkin mittariin muutoksia, vaikka mittari olisikin jotain abstraktimpaa vielä alussa kuin suora P&L-vaikutus.

3. Rakenna uusia valmiuksia (“AI readiness”)

Älykkäät algoritmit vaativat oppiakseen valtavasti laadukasta opetusaineistoa. Useissa yrityksissä laadukasta opetusaineistoa ei ole riittävästi tai organisaation sisäisistä rakenteista johtuen sitä ei ole saatavilla siellä missä sitä tarvittaisiin. Aloita yrityksesi datalähtöisyyden kehittäminen infrastruktuurin lisäksi myös kulttuurin tasolla.

Suosittelen tekoälyn hyödyntämisestä osana liiketoimintaa harkitsevia katsomaan Andrew NG:n Sloan Business Schoolin järjestämässä Stanford MSx Future Forum -tapahtumassa pitämän esityksen Artificial Intelligence is the New Electricity

Koneoppimisen haasteet:

Saavutetuista läpimurroista huolimatta koneoppimiseen ja tekoälyyn liittyviä haasteita ei ole vielä selätetty.

Maalaisjärjen puuttuminen

Tilastollisista juuristaan johtuen inputin (x) ja outputin (y) välisen relaation mallintamiseen keskittyvät, ohjattuun oppimiseen (supervised learning) perustuvat koneoppimismenetelmät suoriutuvat haastavistakin tehtävistä ennakoidulla todennäköisyydellä jopa ihmistä paremmin, mutta saattavat epäonnistua meistä hyvinkin triviaaleilta tuntuvilta tehtävissä, sillä niillä ei ole minkäänasteista “maalaisjärkeä” (common sense). Meistä hölmöiltä tuntuvien virheiden vähentämiseksi tutkijat yrittävät selvittää keinoja, joiden avulla voidaan lisätä algoritmien kontekstuaalista ymmärrystä sekä kykyä soveltaa aiemmin oppimaansa toisessa viitekehyksessä.

Siinä missä olemme jo oppineet rakentamaan ylivertaisia, suoraviivaisesti yhden ongelman ratkaisijoita, ihmisillä on vielä kaksi suurta luovuuteen liittyvää erikoiskykyä, tutkiminen (exploration) ja synteesi. Tutkiminen viittaa ihmisen kykyyn harkita kokemuksensa pohjalta vaihtoehtoisia tapoja ratkaista sama ongelma, erityisesti tilanteissa, joissa ensimmäinen lähestymistapa epäonnistuu. Synteesillä tarkoitetaan sitä, että ihminen kykenee soveltamaan kokemuspohjaansa ennen näkemättömiin ongelmiin hyvinkin yllättävien ja heikkojen mielleyhtymien kautta. Näistä kyvyistä ensimmäisen kohdalla on saavutettu jo tutkimuksessa selkeää edistystä viime aikoina, kun taas edistys aidon synteesin saavuttamisessa on ollut aika rajoittunutta ja se luultavasti tulee vaatimaan vielä uusia läpimurtoja.

Selitettävyys

Modernien oppimisalgoritmien soveltamista harkitsevien tulee tehdä valinta mallin tarkkuuden ja selitettävyyden välillä.

WHAT VS. WHY: Modern learning algorithms show a tradeoff between human interpretability, or explainability, and their accuracy. Deep learning is both the most accurate and the least interpretable.

Etsiessään erottavia ja yhdistäviä tekijöitä syväoppimiseen pohjautuvat algoritmit suorittavat datalla lukuisia muunnoksia eikä välivaiheet ole ihmisille aina ymmärrettävissä. Siksi näistä menetelmistä käytetään toisinaan myös termiä “black box”.

Modernien algoritmien toimintaan liittyvistä haasteista kiinnostuneita suosittelen lukemaan

Is Artificial Intelligence Permanently Inscrutable? sekä The Extraordinary Link Between Deep Neural Networks and the Nature of the Universe

Vuorovaikutus koneiden kanssa

Kehittyneet rajapinnat (API) ratkaisevat alati monimutkaistuvaa vuorovaikutusta koneiden välillä (machine-to-machine), mutta kuinka me ihmiset otamme älykkäistä apureistamme kaiken irti? Lisätty älykkyys (augmented intelligence) tähtää saumattoman vuorovaikutuksen (human-computer-interaction, HCI) rakentamiseen ihmisten ja koneiden välille (human-to-machine, H2M) ja pyrkii näin tehokkaasti valjastamaan tekoälyn tuottaman lisäarvon osaksi jokapäiväisiä prosesseja.

Vielä tuoreessa muistissa olevat pettymykset SIRI:n kanssa osoittavat kuinka koneiden kanssa käytävässä vuorovaikutuksessa otetaan vasta ensiaskeleita. Onneksi Google Homen ja Sisensen kaltaiset ratkaisut tuovat vähitellen toivoa ja toimivat rohkeina suunnannäyttäjinä muille H2M-käyttöliittymäsuunnittelijoille.

Liialliset odotukset

Ken kuuseen kurkottaa, se katajaan kapsahtaa vai miten se meni? Edelläkävijöiden onnistumiset ja median valtava hypetys ovat rohkaisseet lukuisia perinteisempiä toimijoita ottamaan tekoälyn ylimmän johdon agendalle, mutta samalla saattanut synnyttää turhaa toivoa ja epärealistisia käsityksiä sen mahdollisuuksista. Vaikka tekoäly ja koneoppiminen pitävät sisällään valtavan lupauksen, tulee niihin suhtautua aina liiketoiminnan realiteeteista käsin.

Building an AI Startup: Realities & Tactics

Olennaista on muistaa, että todellista kilpailuetua synnyttäviä, vertikaali- tai yrityskohtaisia ratkaisuja on vielä harvoin valmiina saatavilla ja jokaista osatehtävää varten kehitetty ratkaisu edellyttää pitkäjänteistä tutkimusta ja kehitystä sekä ratkaistavan ongelman, domainin että datan ymmärrystä.

Ilmaisia lounaita ei siis ole tälläkään kertaa tarjolla. Mikäli aihe kiinnostaa enemmän voit kurkistaa hypen taakse kahlaamalla

Building an AI Startup: Realities & Tactics -kalvot sekä lukemalla artikkelit Five AI Startup Predictions for 2017 ja The atomization of AI.

Loppusanat:

Hyvinvoinnin kasvu on seurausta teknologian kehityksestä. Heikkoon tekoälyyn perustuvat teknologiat ovat tulleet jäädäkseen ja sen sijaan että sulkisimme silmämme, meidän tulisi rohkeasti toivottaa pikkuapurit tervetulleeksi ja lähteä kokeilemaan älykkäämpiä työnjaon malleja.

Huominen näyttää todella valoisalta. Annetaan koneiden hoitaa datamassojen prosessointi, kaikkia harmittavat toistuvat suoritteet ja keskitytään me ihmiset algoritmien opettamisen lisäksi muihin korkeampia kognitiivisia kykyjä vaativiin askareisiin kuten luovaan ongelmanratkaisuun, eettiseen päätöksentekoon ja toistemme emotionaaliseen kohtaamiseen.

Kiinnostavia puheenvuoroja ja pohdintoja tulevaisuuden työnjaosta Future of Lifen järjestämässä Beneficial AI 2017 -seminaarissa Not Enough AI ja Implications of AI for the Economy and Society

Kiitos huikeasta sparrista Niko Vuokko (Phd), Joni Salminen (Phd), Peter Sarlin (Phd), Tomi Niittumäki, Klaus Dahlen, Jani Anttonen, Tuomas Vuori, Robert Siipola, Ali Leino, Eeva-Maija Hellsten, Jane Haapoja sekä Valohain -sankarit Ruksi ja Eero.

Kirjoittajasta: Tekoälyyn ja vaihtoehtoisiin todellisuuksiin koukkuun jäänyt naiivi ja energinen sarjayrittäjä. Perustanut rytinällä kansainvälistyneen kotihoidon kommunikointityökalun NurseBuddyn, Suomen Ketterimmän Videotoimiston nimeltä Videolle sekä uusia ja kiinnostavia teknologioita (AI, VR) soveltavan ja tutkivan Nordic Venture Familyn. Tällä hetkellä käytän päiväni tekoälyn tutkimiseen ja soveltamiseen huippusalaisissa projekteissa.

Olen myös mukana käynnistämässä projektia, jonka missiona on neutralisoida globaalien teknologiajättien ylivalta tekoälyn hyödyntämisessä ja taata muille yrityksille valmiudet pysyä kilpailukykyisenä tekoäly-aikana. Mukana on eturivin tekoälytutkijoita, kehittäjiä sekä kokeneita vesseleitä liike-elämän huipulta. Kerron tästä projektista mielelläni lisää kasvotusten.