PUHEENVUORO
Ihmismieli koneessa
Saatat kiittää digitaalista ”avustajaasi” ymmärtäväisyydestä. Kyseessä on (tietysti) kuitenkin laaja kielimalli, joka tuottaa todennäköisyyslaskennan pohjalta peräkkäisiä sanoja. Silti sen tuotos näyttää aivan kuin se olisi ihmisen aikaansaamaa. Tällaiset hetket tiivistävät aikamme paradoksin: mitä keskustelukykyisemmäksi teemme tietojärjestelmät, sitä helpommin alamme uskoa niiden ymmärtävän ja toimivan ihmisen kaltaisesti. Antropomorfismimme ei ole heikkous vaan osa ihmisyyttä. Pienet sosiaaliset vihjeet – rytmi, katse, äänen lämpö tai tekstin ystävällinen sävy – riittävät käynnistämään automaattisen tulkintamme mielestä ja aikomuksista. Kun kuvaamme järjestelmien toimintaa ”tekoälyn päätöksinä” tai ”empatiana”, illuusio vahvistuu. Näin syntyy huomaamaton siirtymä: Pelkkä simulaatio muuttuu mielessämme suoraan selitykseksi sen (mahdollistavista) taustalla olevista mekanismeista. Kun järjestelmä toimii ihmismäisesti, ajattelemme helposti sen myös ajattelevan.
Yksi keskustelu koneen kanssa ei muuta mitään. Arjen lukuisat pienet kohtaamiset tällaisten tietojärjestelmien kanssa kuitenkin helposti haperoittavat sitä sosiaalista pääomaa, josta inhimillinen luottamus ja aito vastavuoroisuus rakentuvat. Kun alamme puhua “tekoälyn valinnoista”, vastuu luisuu pois sen kehittäjiltä kohti tuotokseltaan ihmisen kaltaista, mutta täysin kuvitteellista viestijää. Terapiassa tai opetuksessa simuloitu empatia voi tuntua hämmästyttävän aidolta, vaikka sitä ei oikeasti ole olemassa. Hallittuna siitä voi olla myös suuria hyötyjä, myös inhimillisiä. Hallitsemattomana se voi johtaa monenlaisiin ongelmiin. Simulaatio ei tunne, saati kanna moraalista tai eettistä vastuuta. Elämässämme olleita rakkaitamme jäljittelevät avatarit voivat aluksi lohduttaa, mutta ne voivat myös pitkittää surua tai luoda uuden, täysin katteettoman kokemuksen ihmissuhteesta, jota ei enää ole olemassa.
Järjestelmä luokittelee, tuottaa ehdotuksen tai simuloi
– mutta ei tunne, tahdo tai koe.
Tilanteen korjaaminen alkaa kielestä. Jo termi ”tekoäly” vihjaa älyä omaavaan toimijaan. Kun vaihdamme lauseen ”tekoäly ymmärtää” muotoon ”malli tuottaa arvion”, teemme näkyväksi rajapinnan ihmisen ja työkalun välillä. Kun opetamme opiskelijoille, että järjestelmä luokittelee, tuottaa ehdotuksen tai simuloi – mutta ei tunne, tahdo tai koe – katkaisemme illuusion juuri sieltä missä se syntyy. Kielihygienia on yksinkertainen ja helposti laajennettava tapa varmistaa, että muistamme järjestelmien olevan vain työkaluja, ei eläviä toimijoita. Ilman kielihygieniaa mikään ohjeistus tai sääntely ei toimi, sillä virheellinen ajattelu juurtuu usein juuri kielen tasolle. Kielen tarkkuus ei köyhennä keskustelua vaan pitää meitä kiinni todellisuudessa.
Tämä on keskeistä myös käyttämissämme palveluissa. Tietojärjestelmien tarkoituksella ”keinotekoistettu” ja kasvoton ääni ei heikentäisi palvelun laatua. Se vain vähentäisi riskiä siitä, että käyttäjä erehtyy luulemaan järjestelmää vastuulliseksi ja toimijuutta omaavaksi. Kriisitilanteissa järjestelmä osaisi lopettaa kohteliaan kuuntelun simuloimisen ja siirtää keskustelun ihmiselle. Pitkissä vuorovaikutuksissa järjestelmän yksinkertainen ilmoitus “palaa ihmiskontaktiin” olisi pieni mutta tärkeä muistutus elintärkeästä yhteydestämme toisiin ihmisiin. Vastuu näiden järjestelmien toiminnasta kuuluu aina kehittäjille, hankkijoille ja niitä käyttäville organisaatioille. Se ei koskaan voi kuulua järjestelmälle itselleen.
Psykologeille vuorovaikutusta simuloivien tietojärjestelmien
aikakausi tarkoittaa uuden roolin omaksumista.
Psykologeille ihmisten välistä vuorovaikutusta simuloivien tietojärjestelmien aikakausi tarkoittaa uuden roolin omaksumista. Perinteinen rooli on keskittynyt ymmärryksen rakentamiseen ihmisten välisestä vuorovaikutuksesta. Nyt rinnalle nousee tarve ymmärtää, miten tietojärjestelmien simuloitu empatia rakentuu, miksi se tuntuu aidolta ja millä keinoin sen katteetonta aitouden illuusiota voidaan hallita. Tarvitsemme lisää tutkimusta inhimillistämisen laukaisevista ja ylläpitävistä tekijöistä sekä keinoista kontrolloida niitä. Samalla tarvitsemme sääntelyä, jonka tehtävä ei ole hidastaa teknologian hyötyjä vaan suojella sitä, mikä tekee näistä hyödyistä merkityksellisiä: inhimillistä yhteyttä.
Voimme tehdä paljon myös omassa arjessamme. Voimme huomioida tarpeen saada tukea toiselta ihmiseltä, ennen kuin turvaudumme tietojärjestelmiin. Voimme opetella sanomaan ääneen ”työkalu auttoi minua” sen sijaan, että toteaisimme ”avustajani päättäneen”. Voimme myös tunnistaa ne signaalit, joilla kieli, rytmi tai avatarin katse meitä houkuttelevat, ja tiedostaa, että noiden signaalien kirvoittamat tunteemme eivät vastaa vuorovaikutuksen todellista luonnetta. Kun pidämme simulaation simulaationa, voimme käyttää näitä järjestelmiä tehokkaasti apuvälineinä tai tukena. Tällöin teknologia voi laajentaa toimintakykyämme ilman että se kolonialisoi ihmisten välistä luottamusta, läheisyyttä tai yhteisöllisyyttä.
Emme ole taistelemassa tietojärjestelmiä vastaan, vaan puolustamassa inhimillistä toimijuutta ja vastuuta. Kun pidämme niistä kiinni, yhteiskunta säilyy ihmisen kokoisena ja ihmisen näköisenä.
Timo Ruusuvirta, Kati Kasanen, Tiina-Maria Päivänsalo, Pauliina Parhiala, Samuli Kangaslampi ja Niklas Nordling
Suomen Psykologiliiton Tutkimus-, opetus- ja kehittämistyön jaos