Terveydenhuolto ei ole valmis tekoälylle

Tekoäly tekee tuloaan terveydenhuoltoon, mutta terveydenhuolto ei ole vielä täysin valmis sille. Liuta tekoälyn käyttöön liittyviä eettisiä kysymyksiä ammottaa avoimena – ja kysymykset ovat isoja.

Koneoppimisesta ja älykkäistä algoritmeista käytävää keskustelua leimaa korkea hype. Tekoälyä markkinoidaan hanakasti erilaisten lääketieteen ongelmien ratkaisijana. Villeimmissä visioissa tietokone korvaa lääkärin.

Husin kehittämisjohtaja Visa Honkanen arvioi, että hehkutus johtuu siitä, että teko- älyä kehittävät IT-yritykset eivät ole aina täysin ymmärtäneet, mitä lääkäri tekee. Siksi odotukset tekoälyn kyvyistä ovat nousseet suuriksi ja osin epärealistisiksi.

Honkanen painottaa, että tekoälyssä on pohjimmiltaan kyse vain teknologiasta.

– Tekoälykeskustelussa on yhä sumeana se, että tekoälyn ei ymmärretä pohjautuvan tilastollisiin korrelaatioihin. Tekoäly ei kerro syy–seuraussuhdetta, Honkanen sanoo.

Tämä pitäisi kirkastaa ihmisten mieleen. Samalla pitäisi suunnata keskustelua siihen, millaiset eettiset säännöt tekoälyn käyttöä ohjaavat.

– Näitä sääntöjä tarvitaan. Pitää sopia, kenellä on oikeus hyötyä siitä kaikesta, mitä hän minusta tietää, Honkanen sanoo.

Oikein käytettynä tekoäly voi tuoda paljon hyvää terveydenhuoltoon.

Yksi orastavista mahdollisuuksista on pikkukeskosten sepsistä ennustava malli, jota Hus ja IBM ovat rakentaneet yhteistyössä.

Mukana mallia kehittämässä on ollut lastentautien erikoislääkäri, neonatalogi Markus Leskinen Husista.

– Tehohoidossa tekoälyn mahdollisuus on nimenomaan siinä, että kone pystyy löytämään sellaisia hiljaisia signaaleja, jotka viittaavat siihen, että potilaan vointi alkaa huonota, Leskinen sanoo.

Kliinikko tunnistaa lapsen alkavan infektion esimerkiksi hengityskatkoista ja heittelevästä verenpaineesta tai viimeistään laboratorioparametrien muutoksista.

– Tietyn kynnyksen pitää ylittyä, ennen kuin lääkäri osaa haistaa sairastumisen. Kone havaitsee pienet vaihtelut potilaan olotilassa ja löytää riskipotilaat huomattavasti aikaisemmin kuin tuo kliinikon kynnys ylittyy.

Husissa pikkukeskosten kohdalla tekoäly on onnistunut löytämään retrospektiivisestä aineistosta sepsikseen sairastuneet yli 90-prosenttisesti jopa vuorokautta ennen lääkäriä.

Tästä huolimatta tekoälyä ei välttämättä tulevaisuudessa tarvita lääkärin apuna sepsiksen tunnistamisessa, sillä ongelma hoituu ehkä muutenkin: pikkukeskosten sepsikset ovat Suomessa vähenemään päin.

Sepsisepäilyjä on kuitenkin yhä runsaasti.

Leskinen uumoilee, että tekoäly saattaa tulevaisuudessa auttaa hoitohenkilökuntaa arvioimaan paremmin sepsiksen riskiä. Matalan riskin tapauksissa riittäisi, että otetaan veriviljely, mutta ennen antibiootin aloittamista odotettaisiin lisätutkimusten tuloksia.

– Pystyisimme kohdentamaan hoitoja paremmin ja lykkäämään niitä, joista voisi potentiaalisesti olla jotakin haittaa.

Parhaimmillaan tekoälystä voi tulla lääkärille erinomainen työkalu, jota käyttää tukena potilaan hoitoa koskevissa päätöksissä.

Yksi tekoälyn vastuullisen käytön periaatteista liittyy juuri tähän. Visa Honkanen painottaa, että algoritmin ei saa antaa koskaan tehdä hoitoon mahdollisesti liittyviä moraalisia ja eettisiä valintoja.

– Algoritmi on rakennettava mahdollisimman vapaaksi arvotuksista, ja sen osuuden pitää perustua pelkästään tiettyjen faktojen käsittelyyn. Algoritmi voi tuottaa todennäköisyyden, millä potilas hyötyy hoidosta, ja tiedon sen kustannuksista, mutta hoitopäätöksen tekee aina lääkäri. Moraalisia valintoja ei saa ”lakaista” algoritmin alle, Honkanen sanoo.

Objektiivisuuden vaade voi kuulostaa yksinkertaiselta, mutta sitä se ei ole.

Markus Leskinen sanoo, että tekoälyä markkinoidaan usein sanomalla, että tekoälyn ja algoritmien avulla vältetään erilaiset ennakkoasetelmat tai se, että eri ihmisryhmiä hoidettaisiin eri tavalla.

– Asia on itse asiassa jopa päinvastoin. Tietokonekin voi syrjiä, jos algoritmi käytännössä opetetaan matkimaan ihmisen päätöksentekoa.

Leskinen muistuttaa, että inhimillisessä päätöksenteossa on hyvin usein vinoumia, oikopolkuja ja stereotypioita, jotka altistavat päätökset tasa-arvo-ongelmille.

– Opettaessamme algoritmin matkimaan meitä se matkii myös meidän ennakkoasetelmiamme.

Siksi päätöksentekoketjun pitäisi tekoälyä käytettäessä olla läpinäkyvä. Tämä on Visa Honkasen mielestä toinen tärkeä periaate vastuullisessa tekoälyn käytössä.

– Algoritmin rakentajan ja validoijan pitää pystyä tuottamaan julki perusteet, joihin sen antama vastaus perustuu. Miten muuten algoritmin laatua voisi arvioida?

Tärkeitä ja toistaiseksi avoimia kysymyksiä tekoälyn käytössä ovat myös vastuu- ja tietosuojakysymykset.

Vastuukysymykset tulevat vastaan siinä vaiheessa, kun jokin hoidossa menee pieleen. Terveydenhuollon ammattilainen voi joutua syytetyksi yhtä hyvin tekoälyn ehdottaman menettelytavan noudattamisesta kuin sen noudattamatta jättämisestä.

Tietosuojakysymyksiin voisi äkkiseltään ehdottaa ratkaisuksi henkilötietojen poistamista datasta.

Tekoäly vaatii analytiikan tekemiseen kuitenkin niin valtavan tietomäärän, että potilaat pystytään usein anonymisoidustakin datasta tunnistamaan.

Visa Honkasen mukaan ratkaista pitäisi myös se, kuka algoritmeja päivittää.

– Lääkepilleristä tiedämme, että sen teho on sama joka kerta kun se annetaan, vaikka se ei kaikkia autakaan. Algoritmi voi toimia hyvin vuosia, mutta jos jokin ympäristössä tai potilasmateriaalissa muuttuukin, tekoäly antaa väärän ennusteen. Kuka tarkistaa ja huolehtii, että tekoäly edelleen päättelee oikein?

Tekoälyä on neljää sorttia

Kaikki eivät ymmärrä tekoälyn määritelmää samalla tavalla, sanoo IBM:n myyntijohtaja Pekka Leppänen.

– Tekoäly pitäisi demystifioida, mikä vaatii jäsentämistä ja syventymistä aiheeseen.

Jäsentämistä tarvitaan, sillä tekoälyksi kutsuttujen sovellusten spektri on hyvin laaja. Leppänen itse suosii jaottelua neljään kategoriaan.

Kehittynyt ennakoiva analytiikka herättää ihmisen toimimaan, kuten Husin sepsis-malli tekee. Seuraava askel eteenpäin on suositteleva analytiikka, joka on kantaaottavampi kuin ennakoiva analytiikka. Suositteleva analytiikka voi jopa ohjeistaa ihmistä toimintaan.

Näin tekee esimerkiksi Medtronicin ja IBM:n yhdessä kehittämä palvelu diabetesta sairastaville.

– Palvelu käyttää toisaalta kliinisiä malleja, toisaalta reaaliaikaista tietoa potilaan tilasta. Kun palvelu saa tietoa potilaan ruokailuista ja liikkumisesta, se voi antaa niiden ja jopa insuliinin käytön suhteen ohjeita.

Kolmas kategoria koostuu koneoppimista hyödyntävistä sovelluksista eli neuroverkoista. Koneoppimista hyödynnetään esimerkiksi konenäköratkaisuissa, jollaista IBM työstää Watson Health Mergessä.

Samoin suomalainen Fimmic pyrkii oman konenäköratkaisunsa avulla helpottamaan ja nopeuttamaan lääkärien ja tutkijoiden työtä erityisesti syöpä- ja infektiotautien diagnostiikassa ja tutkimuksessa.

Neljännessä tekoälykategoriassa on kyse kognitiivisesta tekoälystä.

– Kognitiivisessa tekoälyssä koneelle viedään ihmisen geno- ja fenotyypit ja opetetaan perusmekanismit geeneistä mutaation jälkeiseen oireeseen, Leppänen kertoo.

Lisäksi koneelle syötetään tutkimustietoa. Kone siis oppii tekemään tieteellisen havainnon, jonka tehtyään se kertoo lääkärille mahdollisen diagnoosin ja hoitosuositukset perustelluin todennäköisyyksin.

Leppäsen mukaan tekoäly ei siten etsikään vain todennäköisyyksiä, vaan se kykenee myös ymmärtämään riippuvuussuhteita ja löytämään analogioita.

– Tekoäly ei korvaa lääkäriä, mutta se voi merkittävästi auttaa hänen työtään, Leppänen sanoo.

Ministeriön ohjelma tekee meistä tekoälykansalaisia

Eettisiin kysymyksiin ei ole helppoja ratkaisuja, mutta Visa Honkasen mielestä niitä pitää hakea pikaisesti.

Hän ottaa esimerkin sosiaalisen median maailmasta. Palvelut tulivat nopeasti, keräsivät käyttäjistään valtavat määrät tietoa ja vasta viime vuosina on havahduttu pohtimaan, miten yritykset tietoja käyttävät. Käyttäjien tai yhteiskunnan on vaikea enää saada sanansijaa pelisääntöjen määrittämisessä.

– Tekoälynkin suhteen tekninen kehitys edistyy nyt niin kovaa vauhtia, että olemme myöhässä, jos rupeamme vasta viiden vuoden päästä miettimään näitä asioita, Honkanen sanoo.

Työtä vastausten löytämiseksi ollaan aloittelemassa valtakunnan tasolla. Työ- ja elinkeino- ministeriössä työstetään tekoälyohjelmaa, jonka on tarkoitus luotsata Suomi tekoälyn hyödyntämisen kärkimaaksi. Ministeriön visioissa tekoäly on aktiivisesti käytössä jokaisen suomalaisen arjessa jo viiden vuoden kuluttua.

Ohjelmaa koostava ohjausryhmä on antanut väliraporttinsa ja kahdeksan toimenpidesuositusta tavoitteen saavuttamiseksi.

Vielä on monia aihepiirejä, joita koskevia toimenpidesuosituksia vasta laaditaan. Tekoälyyn liittyvät eettiset kysymykset ovat yksi tällainen aihekokonaisuus.

Ryhmän on tarkoitus jättää loppuraporttinsa vuonna 2019.