Yliopistoseikkailu 2023, osa II: Tekoäly ja tutkimuksen tulevaisuus
Tekoälysovellukset ovat yliopistoille sekä uhka että mahdollisuus. Itä-Suomen yliopisto on ilmoittanut kannustavansa opettajiaan tekoälysovellusten käyttöön. Itse olen suhtautunut tähän kriittisesti. Kritiikin ytimessä ei ole tekoälysovellusten kategorinen vastustaminen. Kysymys on yliopisto-opintojen tavoitteiden tehokkaasta ja yhdenvertaisesta saavuttamisesta.
Yliopisto-opetus on luonnollisesti tärkeä asia. Mutta opettaminen ei ole yliopistojen ensisijainen tehtävä. Yliopistojen ytimessä ovat uudet ajatukset, löydökset ja teoriat: yliopistojen ytimessä on tutkimus. Yliopistojen opetus ja yhteiskunnallinen vaikutus ovat merkityksellisiä vain siinä määrin kuin ne perustuvat uudelle tutkimukselle.
Tulee siis kysyä: mikä on tekoälysovellusten – erityisesti ChatGPT:n – tehtävä tutkimuksessa?
Uusi tieto yliopistojen ytimessä
Alleviivataan: kaikki yliopistollinen toiminta perustuu tutkimukselle. Mitä on tutkimus? Naiivisti voisimme ajatella, että tiede perustuu yksinkertaisesti ”löydöksille” – että tieteellinen tutkimus vain paljastaa, ”miten asiat ovat”. Tutkimus ei kuitenkaan ole passiivista havainnointia; tutkimus on aktiivista – ja tutkijayhteisön kollektiivista – vuorovaikutusta todellisuuden kanssa.
Tiede on prosessi, jossa uusia tutkimusmenetelmiä kehitetään ja uusia tutkimustuloksia julkaistaan. Tiede on aina uutta. Ja parhaimmillaan tiede on yllättävää – tuttua ja ennalta oletettua haastavaa. Tieteen ytimessä on aktiivinen kurottautuminen kohti tuntematonta.
ChatGPT:n ja muiden kielimalliohjelmien ongelma on tämä: ne eivät tuota mitään uutta. Kyllä, ne tuottavat uutta tekstiä vasteena niille annettuun syötteeseen. Mutta niissä ei ole – toisin kuin julkisuudessa kernaasti sanotaan – älyä: ne eivät tajua tai ymmärrä, mitä ne tuottavat. ChatGPT:n tulostama teksti on vain todennäköisin vaste mallille annettuun syötteeseen – perustuen aineistolle, jolla malli on opetettu.
ChatGPT:lle toki kernaasti esitetään kysymyksiä. Ja vastausten odotetaan olevan totuudenmukaisia ja hyödyllisiä – onhan vastaajana ”tekoäly”, ihmisen luoma oraakkeli. Neuvoja on kysytty jopa poliittisessa päätöksenteossa. ChatGPT ei kuitenkaan ole agentti, jolla olisi ymmärrystä sille syötetyn tekstin merkityksestä. Se ei ole edes hakukone, joka kaivaisi sille esitetyn ”kysymyksen” kannalta relevanttia informaatiota internetistä – puhumattakaan, että se muodostaisi perusteltuja näkemyksiä tai esittäisi uusia ratkaisuja. ChatGPT:n antama tuloste käy vastauksesta, selityksestä tai neuvosta ainoastaan sovellusta käyttävän ihmisen tulkitsemana.
Selkeimmin ChatGPT:n ymmärryskyvyn puute tulee esille matematiikassa: se ei osaa muuntaa yksinkertaisiakaan luonnollisella kielellä esitettyjä matemaattisia ongelmia abstraktiin matemaattiseen muotoon. Paradoksaalisesti siis: massiivisin koskaan rakentamamme laskukone tuskin selviää ala-aste matematiikasta.
Väitän, että ChatGPT ei ole tutkimuksessa yhtä suuri – tai ainakaan samanlainen – ongelma kuin opetuksessa, johtuen juuri sovelluksen perimmäisestä luonteesta: se ei keksi tai luo uutta, vaan järjestää jo olemassa olevaa. Käytännössä tästä myös seuraa, että ChatGPT:n tuloste on keskinkertaista. Tämä on ongelma perusopetuksessa, jossa tähtäin on yleisesti tunnettujen asioiden ja käsitteiden oppimisessa ja oppimisen arvioimisessa. ChatGPT näyttää suoriutuvan peruskurssien tenttivastauksista paremmin kuin suuri osa opiskelijoista. Vastausten rakenne on jopa parempi kuin suurimmalla osalla opiskelijoista (luoden illuusion laajan kontekstin hallinnasta). Mutta tutkimuksen tekeminen ja tutkimustulosten julkaiseminen on – ainakin sen pitäisi olla – oleellisella tavalla muuta kuin vain jo olemassa olevan tiedon toistoa ja järjestelyä.
ChatGPT tutkimuksen tukena
ChatGPT voi olla suoranaisesti hyödyllinen tutkimuksen tekemisessä. Kenties, oikealla tavalla käytettynä, sen avulla voidaan tuottaa kirjoituskatsauksia tai yhteenvetoja jo julkaistuista tutkimuksista. On korostettava, että mitenkään ”itsestään” ChatGPT ei tällaista tehtävää täytä, sillä sovelluksella on myös tapana tuottaa fiktiivistä tekstiä – jopa uskottavan näköisiä mutta olemassa olemattomia lähdeviitteitä. Teksti voi olla hyödyllistä vain, jos tutkija käy sen huolellisesti läpi – tuota yliopiston peruskursseilla hänelle opetettua ”kriittistä ajattelua” käyttäen.
Erityisen hyödyllisenä näen sokraattisen, keskustelevan tai väittelevän metodin soveltamisen ChatGPT:n käyttöön. Sovellusta voi pyytää esittämään vasta-argumentteja tai -esimerkkejä omille argumenteilleen tai ajatuksilleen. Näen tämän hyvinkin käyttökelpoisena menetelmänä kehittää tutkimuskysymyksiä ja -julkaisuja.
Toki nämä vinkit ovat hyödyllisiä myös opiskelussa – kunhan vain perusasiat alan käsitteistä, tuloksista ja tutkimusmenetelmistä on ensin otettu haltuun. Käytännössä ChatGPT:n hyöty – ja sovelluksen eettisesti kestävä käyttö – voidaan saavuttaa vasta sitten, kun opiskelu alkaa muistuttaa tutkimuksen tekoa (kuten syventävien opintojen tekemisessä tai pro gradu -tutkielman kirjoittamisessa).
ChatGPT tieteellisten julkaisujen kirjoittajana
ChatGPT on kielimalli, jolla on helppo tuottaa uskottavan kuuloista asiatekstiä – kuten tutkimustiivistelmiä, joita näyttää olevan mahdotonta erottaa ihmisten kirjoittamista. On siis selvää, että ChatGPT:tä voidaan käyttää, ja käytetään, tutkimusartikkeleiden kirjoittamisessa. Keskustelua onkin herännyt siitä, kuinka tieteellisten julkaisusarjojen tulisi huomioida tämä. Jotkut ovat jo päätyneet täyskieltoon. Suurin osa kuitenkin hyväksyy ChatGPT:n jonkinasteisen käytön.
Olemmekin uuden tutkimuseettisen kysymyksen äärellä: kuinka ChatGPT:n käyttö tutkimusartikkeleiden kirjoittamisessa tulisi mainita? Ongelmana on se, että artikkeleiden kirjoittajista merkittävin (usein ensimmäinen) on artikkelin varsinainen kirjoittaja. Tutkimusartikkelin kirjoittaminen on keskeinen – jollei keskeisin – osa tutkimustyötä. Jos ChatGPT siis kirjoittaa (tulostaa) artikkelin, niin eikö sitä tulisi tällöin pitää artikkelin kirjoittajana?
ChatGPT on jo esiintynyt tieteellisten julkaisujen kirjoittajana. Tämä on kuitenkin ongelmallista: ChatGPT ei ole tiedostava agentti – sen paremmin luonnollinen henkilö kuin oikeushenkilökään – eikä se näin ollen voi täyttää niitä moraalisia ja juridisia vaatimuksia, joita tieteellisen artikkelin kirjoittajalta edellytetään. Yksinkertaisesti: ChatGPT ei voi allekirjoittaa julkaisusopimuksia.
Selvää kuitenkin on, että jos ChatGPT:llä on rooli tieteellisen julkaisun kirjoitusprosessissa, jollakin tavalla tämä on julkaisussa tuotava esille. Miten? Tähän kysymykseen odotetaan vastauksia. Oma näkemykseni on, että vähintäänkin artikkelin lopussa olisi selkeästi ilmoitettava, mitkä osat tekstistä on kirjoitettu ChatGPT:llä, ja miten (millä syötteellä) teksti on tarkkaan ottaen tuotettu (tai miten sovellusta on muuten hyödynnetty tutkimuksen teossa tai artikkelin kirjoittamisessa). Voisi olla myös harkitsemisen arvoista muotoilla erillinen ChatGPT -metodiosio, joka avaisi sovelluksen käyttöä tutkimusprosessissa yksityiskohtaisesti.
Hukummeko tekoälyroskaan?
Roskatieteenä voidaan pitää tieteellistä kirjoittamista, jota motivoi muut tarkoitusperät kuin uuden tieteellisen tiedon tuottaminen. Julkaisuja tuotetaan poliittisten, taloudellisten tai juridisten tavoitteiden edistämiseksi – tai henkilökohtaisen ansioluettelon paisuttamiseksi. Roskatiede ei itsessään välttämättä ole epätiedettä, mutta roskatiede ei lisää ymmärrystämme. Pahimmillaan se tuottaa julkaisuvinoumaa, joka hämärtää käsitystämme tieteellisesti relevanteista kysymyksistä ja tuloksista.
ChatGPT on ollut (julkisessa) käytössä vasta muutaman kuukauden, mutta jo nyt sillä on ollut merkittäviä seurauksia julkaisumaailmaan. Verkkokauppa Amazonissa on jo myynnissä satoja ChatGPT:llä tuotettuja e-kirjoja – ja tämä koskee siis vain kirjoja, joissa ChatGPT on rehellisesti ilmoitettu kirjoittajaksi. Noin kuukausi sitten Clarkesworld, arvostettu fantasia- ja science fiction -lehti, lopetti novellitarjousten vastaanottamisen – ilmoittaen yksinkertaisesti, että ”syytä ei pitäisi olla vaikea arvata”.
Itse olen kuullut tieteellisten lehtien toimittajien tai arvioitsijoiden esittävän epäilyjä, että he ovat joutuneet käsittelemään ChatGPT:llä tuotettuja artikkeleita. Mielestäni on selvää, että tulemme pian näkemään lehtiin arvioitaviksi jätettyjen artikkeleiden räjähdysmäisen kasvun. Ongelmana ei ole pelkästään se, että roskajulkaisujen määrä tulee merkittävästi kasvamaan. Isompi ongelma on se, että koko akateeminen julkaisujärjestelmä tulee hukkumaan tähän roskaan – aivan kuten Clarkesworldin toimituskunta on nyt hukkunut novellitarjouksiin. Pahimmassa skenaariossa mitään ei voida julkaista, koska mitään ei voida ottaa arviointiin, ja nykyisen kaltainen tieteellinen julkaiseminen tulee tiensä päähän: käsillä on publish or perish -kulttuurin reductio ad absurdum.
ChatGPT yliopistoyhteisön jäsenenä
Kenties asenteeni näissä kirjoituksissa on ollut turhan negatiivinen: eikö tekoälysovelluksille löydy mitään hedelmällistä roolia tieteessä? En ole käsitellyt ChatGPT:tä palautteen antajana. Itse asiassa tässä roolissa voin nähdä sen loistavan.
Jälleen kerran kyse on sovelluksen perusluonteesta: taipumuksesta tuottaa järkevän, mukavan kuuloista tekstiä – antaa helposti hyväksyttävä, tunteita herättämätön vaste. Ihmiset ovat persoja palautteelle: haluamme tulla kuulluksi, ja tuntea, että me emme ole keskimääräistä huonompia. Tällaista – hajutonta ja mautonta – palautetta antamaan ChatGPT on kuin luotu. Se voikin olla oiva väline antamaan tenttipalautetta tai jopa suorittamaan vertaisarviointia: kaikki erikoinen ja villi – kaikki liian uusi – kun on ChatGPT:lle myrkkyä.
Tekoälysovellusten avulla yliopistojohto voi myös näppärästi vuorovaikuttaa yliopistoyhteisön kanssa: ChatGPT muuntuu helposti korulausegeneraattoriksi. Näin onkin jo tapahtunut. Torstaina 16. helmikuuta – samana päivänä, kun Itä-Suomen yliopisto ilmoitti kannustavansa opettajiaan tekoälysovellusten käyttöön – Vanderbiltin yliopistossa, yhden sen koulun ”yhdenvertaisuuden, monimuotoisuuden ja yhteenkuuluvuuden toimistossa” (I kid you not!), reagoitiin muutamaa päivää aikaisemmin Michiganin osavaltionyliopistossa tapahtuneeseen joukkoampumiseen lähettämällä yliopistoyhteisölle viesti, jossa peräänkuulutettiin ”yhteisöllisyyttä” ja näin ”kunnioittamaan tragedian uhreja” ja ”työskentelemään turvallisemman ja myötätuntoisemman tulevaisuuden puolesta”. Bravo! Nämä nätit sanat olivat ChatGPT:n tuottamia.
Voidaanko kuvitella synkempää dystopiaa: tekoäly kirjoittelee lohtuviestejä, kun inhimillisestä kanssakäymisestä vieraantuneet asiakasopiskelijat ampuvat toisiaan yliopistokampuksilla? Mutta tämä on todellisuutta.
Meidän on aika kysyä: onko tämä se yliopisto, jonka me haluamme?
Tuomas K. Pernu
Tieteenfilosofian ja tutkimusetiikan yliopistonlehtori
Yhteiskuntatieteiden laitos, Itä-Suomen yliopisto