Joko iskee tähky?
Ainakaan kolmeen vuoteen keskiverto uutisten kuluttaja ei ole voinut elää päivääkään kuulematta tekoälystä.
Filosofianopettaja Arno Kotro käytti Opettaja-lehden kolumnissaan sanaa tekohäly.
Puhetta on piisannut, mutta pelkästään tyhjästä melu ei nouse, Kotro arvioi. Tekoälybuumissa ei ole hänestä kyse ohimenevästä hypestä. Murros on vasta alussa.
Jos uudissanojen hahmottelu sallitaan, tekoälymurroksen voisi sanoa aiheuttavan myös tähkyä. Siis digiähkyn jälkeistä teknostressiä, tekoälyähkyä.
Merkkejä vastareaktiosta on.
Keskustelua meillä ja maailmalla seuratessa huomaa, että moni on jo perinpohjaisesti kyllästynyt tekoälyn lupauksiin.
Joissakin tekoäly aiheuttaa maailmantuskaa.
”Tekoäly kiihdyttää teknologian vastustusta amerikkalaisissa luokkahuoneissa”, otsikoi The Economist marraskuussa.
Talouslehti Forbesin jutussa toimittaja huomautti, että tekoälyn kestäviin ja positiivisiin vaikutuksiin uskovien tulisi kuunnella kriitikkoja, ei leimata huolia vain teknofobiaksi.
Eettinen ahdistus tekoälystä on alkanut näkyä selvästi.
Sen on huomannut sekä opiskelijoissa että opettajissa myös yliopistonlehtori Päivi Kousa, joka työskentelee Jyväskylän yliopistossa.
Hän opettaa ja tutkii korkeakoulupedagogiikkaa sekä tekoälyn eettisyyttä ja lukutaitoa. Opettajat ovat joutuneet miettimään, miten tekoälyahdistusta potevaa opiskelijaa lohdutetaan.
– Opiskelija voi sanoa, että minähän en tekoälyä tällä kurssilla käytä, esimerkiksi ympäristösyistä tai muista eettisistä syistä.
Kun kollegat kääntyvät asiaa tutkivan Kousan puoleen, hän rohkaisee keskusteluun.
– Tärkeää olisi saavuttaa yhteisymmärrys siitä, millaista on tekoälyn tarpeenmukainen ja merkityksellinen käyttö. Lähestymistapa auttaisi eettisessä ahdistuksessa myös muita kuin opiskelijoita.
Esimerkiksi jos opiskelija vastustaa tekoälyn käyttöä yhdessä tehtävässä, hänen kannattaisi selvittää, missä tekoäly jo toimii.
Koska tekoälyn välttely ei modernissa elämässä enää oikein onnistu, sen tavoitteista, rajoista ja vastuullisuudesta pitäisi puhua entistä enemmän.
Opiskelija voi sanoa, että minähän en tekoälyä tällä kurssilla käytä.
Kousa perehtyi tekoälyn vastuullisuuskysymyksiin jo ennen generatiivisen tekoälyn esiinmarssia.
Vuonna 2022 julkaistussa haastattelututkimuksessa Kousa tutki koulutusteknologiayritysten ja opettajien näkemyksiä tekoälyn eettisyydestä. Tutkimusartikkeli on kenties entistäkin ajankohtaisempaa luettavaa.
”Kun tekoälyä otetaan käyttöön koulutuskonteksteissa, koulutusalan sidosryhmien on voitava luottaa siihen, että tekoälypohjaisten ratkaisujen suunnitteluprosessit ovat kokonaisuudessaan eettisiä ja että algoritmit suunnitellaan koulumaailman arvoihin sopivien eettisten periaatteiden mukaisesti”, artikkelissa muun muassa todetaan.
Näinkö kävi, kun tekoälyn henki karkasi Piilaakson pulloista kouluihin? Eettisyys varmistettiin kokonaisvaltaisesti ja tekoälyalgoritmit suunniteltiin koulumaailman arvoista käsin?
Ei aivan.
Isoin eettinen kysymys koulutuksen kannalta koskee sitä, sotiiko tekoäly koulun tehtävää vastaan. Kouluissa pitäisi opettaa ihmisiä, mutta tekoäly korvaakin oppimista, Markus Neuvonen sanoo.
Neuvonen on filosofi, tietokirjailija ja Metropolia-ammattikorkeakoulun tuntiopettaja, joka työskentelee myös faktatarkistuspalvelu Faktabaarin vanhempana neuvonantajana.
Tekoälybuumin ensimmäiset huolet, joiden mukaan tekoälystä tulee ikään kuin vaihtoehto oppimiselle ja kenties myös opettajalle, eivät ole tutkimuksissa kokonaan laantuneet.
– Kysymys on siitä, oppiiko tekoälyä käyttävä ihminen prosessoimaan informaatiota itse. Sehän on se tärkein juttu opettajan työssä. Ja siis oikeastaan sitä oppiminen on.
Neuvosen mukaan jopa fiksut aikuiset käyttävät tekoälyä usein helpoimmalla mahdollisella tavalla. He pyytävät tekoälyä tuottamaan tekstiä tai kysyvät siltä kysymyksiä.
Silloin ihminen ei prosessoi informaatiota eikä opi arvioimaan tietoa.
Kuulostaa yhtä laiskalta kuin vaarattomaltakin, mutta vakavampi yhteiskunnallinen huoli koskee demokratiaa.
Kun kansalaiset pysyvät informoituina, kriittisinä ja kykenevinä keskustelemaan demokraattisesti, demokratian informaatiorakenne voi hyvin.
Historiassa tällaisilla infroilla on kuitenkin ollut taipumusta sortua nopeasti, Neuvonen huomauttaa.
– Olemme nähneet, kuinka vaikea ja hauras ilmiö demokratia on ja kuinka nopeasti se sortuu mölyävien väkijoukkojen ja lopulta tyrannian alle.
Monissa tutkimuksissa on jo havaittu, että tekoälyyn tukeutuminen heikentää kriittistä ajattelua.
Vähän samaan tapaan on käymässä tekoälykielimalleille itselleenkin: ne saastuvat mis- ja disinformaatiolla, josta yhä suuremman osan ne ovat itse luoneet.
Oppiminen vähenee ja sen myötä murenee demokratia. Semmoista.
Miten opettajan pää pysyy pinnalla tekoälyhöykytyksessä?
Ehkäpä helpostikin. Ei kaikkien ole pakko tehdä tekoälystä monimutkaista ongelmaa. Viisain opettaja käyttää tekoälyä vain silloin, kun hän on varma, että käyttö on vastuullista ja tarpeellista.
Myös Neuvosen mukaan tärkeintä on olla huolellinen ja tehdä parhaansa. Kriittisen ajattelun tarve kasvaa, mutta sen ei tarvitse olla penseää tai tekoälyä suoralta kädeltä tuomitsevaa.
– Kyllä opettajilta vaaditaan mielestäni myös aika raskaan jarrupolkimen käyttöä. Ei pitäisi hyväksyä asioita ilman, että vaikutukset arvioidaan huolellisesti.
Jos ei halua sukeltaa syvemmälle, tekoälyaallokkoa voi seurailla altaan matalassa päädyssä kahlailemalla.
Otetaanpa lukuun vaikkapa Opetushallituksen velvoitteet ja suositukset tekoälystä varhaiskasvatuksessa ja koulutuksessa. Niissä opetushenkilöstölle on kirjattu kuusi velvoitetta lainsäädännön pohjalta ja seitsemän yleisempää suositusta.
Puolitoista liuskaa hyvin tiivistettyä tekstiä, joka on luettu ja omaksuttu varttitunnissa.
Tekoälylukutaitoa tarvitaan lisää ja tekoälyn virhepäätelmistä tulee olla tietoinen, Opetushallitus suosittelee. Käytön tulee olla pedagogisesti perusteltua ja käytössä olisi hyvä olla vain koulutuksen järjestäjien hyväksymiä järjestelmiä.
Esimerkiksi salassa pidettäviä, ei-julkisia tai henkilötietoja sisältäviä aineistoja ei saa syöttää tekoälyjärjestelmiin. Sama koskee tekijänoikeuden suojaamia materiaaleja. Perusjuttuja, jotka ovat tuttuja muistakin digitaalisista välineistä.
– Jos tekoälyä kouluttaa syöttämällä sille arkaluonteista dataa, pahantahtoinen taho voi louhia tiedot esiin, Markus Neuvonen muistuttaa.
Yksittäistä opettajaa laajempi vastuu tekoälyn käytöstä on koulutuksen järjestäjällä.
Sen pitäisi Opetushallituksen mukaan varmistaa, että henkilöstö ja oppijat saavat riittävän koulutuksen tekoälyn vastuulliseen käyttöön.
Riittävässä koulutuksessa pitäisi jonkin verran petrata.
Esimerkiksi OAJ:n viimevuotisen jäsenkyselyn mukaan suurin osa oli saanut korkeintaan yhden päivän digiosaamisen koulutusta viiden vuoden aikana.
Niin, yksi varttitunti ei sentään kaikkeen riitä.
Ensin tehdään ja kokeillaan, ja vasta sen jälkeen mietitään vaikutuksia, sääntöjä ja rajoituksia.
Päivi Kousa oli hiljattain mukana pohjoismaisessa hankkeessa, jossa arvioitiin 12 yliopiston tekoälyohjeistusten sisältöjä, painotuksia ja puutteita.
Kävi ilmi, että yliopistojenkin tekoälyohjeistuksissa ja etenkin niiden toimeenpanossa ollaan eräänlaisessa välitilassa.
Ohjeistukset ovat tyypillisesti yleismaailmallisia, vaikka konteksteja, tarpeita ja käyttötapoja on paljon.
– Ohjeiden pitäisi ohjata tekoälyn merkitykselliseen ja tarpeenmukaiseen käyttöön sekä vaivan näkemiseen oppimisen eteen. Sitä ne eivät vielä tee.
Lisäksi tutkijat huomasivat ohjeistuksista koko joukon puutteita. Ne ovat Kousan mukaan linjassa globaalienkin tehtyjen havaintojen kanssa.
– Niissä ei käsitellä monimuotoisuutta, syrjimättömyyttä, oikeudenmukaisuutta eikä yhteiskunnallista ja ympäristön hyvinvointia.
Marssijärjestys näyttää olevan, että ensin tehdään ja kokeillaan. Vasta sen jälkeen mietitään vaikutuksia, sääntöjä ja rajoituksia. Asiat ovat edenneet sääntelyä vastustavien teknoveljien ja -sijoittajien kannalta suotuisasti.
Hyvä verrokki ovat sosiaalista mediaa pulputtavien älypuhelimien vaikutukset lapsiin ja nuoriin. Niiden käytön rajoituksista jotkut maat ovat vetämässä johtopäätöksiä nyt, kun somea on käytetty noin 20 vuotta.
– Sääntely ja ohjeet tulevat aina jälkijunassa. Niitä odotellessa yksi koulutuksessa näytetty Powerpoint-dia harvoin muuttaa yhtään mitään, Markus Neuvonen sanoo.
Hän suosittelee opettajille yksinkertaisten peukalosääntöjen miettimistä vahinkoperiaatteella. Ne voivat liittyä yksityisyyden suojaan ja pedagogiikkaan, mutta myös ympäristö- tai tekijänoikeuskysymyksiin.
Jos haluaa kurkistaa syvemmälle Opetushallituksen tekoälyohjeistuksiin, luettavaksi voi ottaa suositusten ohessa julkaistut tausta-aineistot.
Niissä hahmotellaan kokonaisuutta samaan tapaan kuin esimerkiksi Unescon, OECD:n tai Euroopan komission laatimissa ohjeistuksissa tekoälyn vastuullisesta käytöstä koulutuksessa.
Komission ”eettisissä ohjeissa opettajille” lievää turhautumista voi herättää se, että 40-sivuisesta ohjepumaskasta ei oikeastaan löydy ohjeen ohjetta.
Suorien ohjeiden sijaan kirjasessa taustoitetaan eettisiä näkökulmia ja avataan ilmiön sanastoa ja esimerkkejä.
Mutta komission materiaalin ”ohjaavien kysymysten” patteristot voivat olla hyvinkin käyttökelpoisia. Kysymysten avulla opettajat voisivat halutessaan hiillostaa opetusteknologiaa kouluihin tarjoavia ja hankkivia tahoja.
”Ymmärtävätkö opettajat ja koulujen johtajat, miten tekoälyjärjestelmän käyttämät arviointi- tai yksilöllistämisalgoritmit toimivat?” komissio kehottaa opettajia kysymään.
”Miten tekoälyjärjestelmän tehokkuutta ja vaikutusta arvioidaan ja miten arvioinnissa otetaan huomioon koulutuksen keskeiset arvot?”
Ja niin edelleen. Ohjaavia kysymyksiä on yli kolmekymmentä.
Eettinen sparraus, ellei jopa aktivismi, voisikin olla paikallaan. Tekoäly- ja teknologiabisnes ei ole kuuluisa palvelujen ja sovellusten läpinäkyvyydestä.
Jos teknologiayhtiön vastaus liian moneen eettiseen kysymykseen on kehno, laadukasta koulutusta suojelevassa Suomessa pitäisi pystyä hylkäämään teknoveljien tarjous.
– Siihen, ovatko yritykset eettisiä, voi usein olla liian vaikeaa ottaa kantaa. Meidän on pystyttävä luottamaan siihen, että tekoälytyökaluista sopimuksia tekevät instituutiot kantavat ison vastuunsa myös eettisyyden kannalta, Päivi Kousa sanoo.
