Tekoäly – tulevaisuuden kollega vai vastuun varjo?
Tekoälystä puhutaan yleisesti ja myös terveydenhuollossa innostuneesti. Sen odotetaan nopeuttavan diagnostiikkaa, sujuvoittavan hoitoketjuja ja vapauttavan lääkärin aikaa potilastyöhön. Mutta keskustelusta puuttuu usein olennaisin kysymys: kuka opettaa algoritmin ja millä materiaalilla – ja ennen kaikkea kuka kantaa vastuun, jos järjestelmä ehdottaa potilaalle sopimatonta ratkaisua?
Tekoäly ei synny tyhjiössä eikä itsekseen. Jokainen järjestelmä oppii datasta, jonka ovat keränneet ja luokitelleet ihmiset. Jos koulutusdata kerätään pääosin sairaista potilaista, terveiden osuus jää näkymättömäksi. Tämä voi johtaa siihen, ettei järjestelmä tunnista varhaisia oireita tai poikkeavia löydöksiä terveessä väestössä.
Vinoumat eivät ole teoreettisia – ne ovat jo näkyvillä. Jos EKG-tulkinta ei huomioi lääkityksen vaikutuksia, tulos sydänkäyrästä voi olla virheellinen. Jos keuhkokuvat opetetaan vain ideaalikuvilla, oireileva riskipotilas voi jäädä ilman hoitoa. Vinoutunut opetusaineisto voi tuottaa vinoutuneita suosituksia, ja silti algoritmin tuottama ehdotus esitetään usein objektiivisena. Kun suositus tulee näytölle siistissä muodossa, sen kyseenalaistaminen vaatii enemmän aikaa ja rohkeutta kuin sen hyväksyminen.
Suurin huoli liittyy vastuuseen. Jos tekoäly ehdottaa ja lääkäri hyväksyy, kuka kantaa seuraukset virheestä? Kehittäjä, hyvinvointialue, IT-toimittaja – vai lääkäri, jolla oli kuusi minuuttia aikaa ja kymmenen potilasta odottamassa? Lääkärillä on edelleen henkilökohtainen vastuu, perustuen lakiin terveydenhuollon ammattihenkilöistä (559/1994, ammattihenkilölaki). Lain 22 §:n mukaan potilaan lääketieteellisestä tutkimuksesta, taudinmäärityksestä ja siihen liittyvästä hoidosta päättää laillistettu lääkäri.
Mutta voiko lääkäri kantaa vastuun järjestelmästä, jonka taustoihin hän ei voi vaikuttaa?
Vastuu ilman valtaa on kohtuuton yhdistelmä.
Tulevaisuudessa lääkäreille tulee antaa koulutusta tekoälyn arviointiin. Tekoälyä käytettäessä olisi pystyttävä arvioimaan järjestelmän taustadata, toimintalogiikka ja käyttöehdot. Kun tekoäly tuodaan mukaan potilaan hoitoon, se on validoitava kunnolla – paitsi teknisesti, myös eettisesti ja kliinisesti.
Tämä ei ole teknologiakriittisyyttä, vaan ammattiroolin puolustamista. Lääkärin tehtävä ei ole katsoa vierestä, kun päätöksiä ulkoistetaan algoritmeille, joiden toimintaa ei voi arvioida tai muuttaa. Jos kliininen harkinta kutistuu muodolliseksi hyväksyntänapiksi, ammatillinen autonomia kuihtuu – ja vastuu jää silti lääkärin omille harteille.
Tekoäly voi olla lääkärin tuki, mutta vain jos vastuu ja valta kulkevat käsi kädessä. Mutta jos lääkäri asetetaan viime käden vastuunkantajaksi ilman vaikutusvaltaa, kehitys menee väärään suuntaan. Teknologia näyttää neutraalilta, mutta epävarmuus ja vastuu virheistä jäävät yksilölle.
Generatiivisesta tekoälystä ja ChatGPT:stä löytyy runsaasti julkaisuja, mutta harva niistä on tehty reaalisessa terveydenhuollon ympäristössä – saatikka sisältänyt vertailuryhmää.
Siksi jokainen kokemus, havainto ja tutkimustieto tekoälyn käytöstä terveydenhuollossa on nyt arvokas.