Tekoäly, informaatiolukutaito ja tiedonhankinta – ECIL konferenssin antia

05.12.2025

Historiallinen Bambergin kaupungintalo

Yhdeksäs ECIL konferenssi keräsi yhteen tiedonhaun ammattilaisia ja tutkijoita Saksan Bambergiin syyskuun lopulla. Nelipäiväisen konferenssin tärkein puheenaihe oli tekoäly ja sen vaikutukset niin tiedonhankintaan kuin ajatteluun ja opiskeluun yleensä. Tässä artikkelissa on kooste siitä, mitä päivien aikana opittiin ja pohdiskeltiin.

Tekoälytyökaluja tai tekoälyn erilaisia käyttötarkoituksia kirjastokontekstissa tarkastelevia esityksiä oli runsaasti. Monissa kirjastoissa oli tehty kyselyitä ja järjestetty opastuksia tekoälyn käytöstä, samalla oli kerätty opiskelijoiden ja henkilökunnan tarpeita ja näkemyksiä tueksi kirjaston tekoälyyn liittyvien palveluiden jatkojalostukseen. Lisäksi kuultiin tekoälytyökalujen keskinäistä vertailua. Toki mukana oli myös muita teemoja, mutta jollain tavalla tekoäly taisi olla mukana lähes jokaisessa sessiossa.  

Tekoäly ja tiedonhankinta 

Tiedonhankinta tekoälyn avulla eroaa perinteisestä tiedonhausta niin, että tekoälyhaku tuo aina tuloksia, myös sanoilla ja yhdistelmillä, jotka perinteisesti hakemalla tuottavat nollatuloksen. Pelkistetysti taustalla on se, että perinteinen haku etsii tiettyjä merkkijonoja, joita joko on tai ei ole esimerkiksi artikkelin tiedoissa – sen sijaan generatiivista tekoälyä hyödyntävä haku taas etsii samankaltaisuutta. Vaikka samankaltaisuutta olisi hyvin vähän, aina joku on eniten samankaltainen, eli haku ei koskaan tuota nollatulosta. Tekoälyhaussa on mukana paljon satunnaisuutta, joten samalla haulla tulos usein vaihtelee hakukertojen välillä, toisin kuin tavanomaisessa merkkipohjaisessa haussa. Satunnaisuus näkyy myös siinä, että tekoälyhaut antavat työkalujen välillä samaan kysymykseen hyvin erilaisia vastauksia, kun perinteisellä haulla taas vastaus on pitkälti samankaltainen. (Juth 2025.) 

Tekoälyhakua on usein helppo käyttää. Hakusanojen muotoiluun ja etsimiseen ei tarvitse käyttää aikaa, vaan kysymällä tai kuvaamalla aihetta omin sanoin saadaan tuloksia ja päästään tiedontarpeessa eteenpäin. On tilanteita, jolloin tämä onkin riittävää, saadaan tulos aiheesta ja sopiva lähde luettavaksi. Mutta millä perusteella tarjotut artikkelit hakutulokseen on valittu? Tämä jää useimmissa tekoälyä käyttävissä järjestelmissä hämärän peittoon, tai käyttäjälle annetaan jopa harhaanjohtava käsitys ”parhaista” artikkeleista aiheeseen liittyen, vaikkei mukana olisikaan artikkeleiden laadullista arviointia (Risbakk 2025).  

Tekoälyhaun ominaisuudet huomioiden tekoälyä hyödyntävä haku toimiikin parhaiten tilanteissa, joissa tarvitaan nopeasti joku lähde aiheesta. Jos tarkoituksena on tehdä syvemmälle aiheeseen sukeltavia hakuja tai jopa systemaattista hakemista, tarvitaan tekoälyhaun rinnalle toistettavampia menetelmiä, vaikkakin tekoälyhaku voi auttaa esimerkiksi hakusanojen löytämisessä. (Juth 2025.) 

Miten sitten tehdään parempia tekoälyhakuja? Paljon puhutaan promptaamisen tärkeydestä, mutta se ei yksinään riitä, vaan pitää ajatella kokonaisuutta. Vertauskuvana tälle Ute Schmid (2025) nosti paljon kehutussa keynote-puheenvuorossaan esiin autolla ajamisen. Vaikkei autoa ajaakseen tarvitse tietääkään tarkalleen, miten auto toimii, noudatetaan autolla ajamisessa kuitenkin yhteisiä sääntöjä ja tiedetään, mikä on turvallista ja mistä taas voi syntyä vaaratilanteita. Tekoälyhauissa ja tekoälyn käytössä yleensäkin tätä tietämystä ei vielä välttämättä ole.  

Tekoälyn vaikutus yhteiskuntaan ja vinoumat 

Isoja kielimalleja (LLM) käytetään usein samaan tapaan kuin Googlea tai tietokantojen käyttöliittymiä: tehdään haku ja käytetään suoraan tuloksia. Tämä ei kuitenkaan tällä hetkellä ole järkevä toimintapa suurten kielimallien rajoitteiden takia. Tulosta täytyy arvioida ja vastuu on käyttäjällä. 

Ute Schmid (2025) esitti, että jotta tekoälyllä löydettyjä materiaaleja voidaan käyttää, täytyy ymmärtää tekoälyn toimintaa. Hänen mukaansa tekoälymenetelmien perusperiaatteiden teoreettinen ymmärtäminen on tärkeä edellytys työkalujen käytölle. 

Schmid nosti esille dagstuhl-kolmion, joka esittää kolme näkökulmaa ja niihin liittyvää kysymystä, jotka tulisi huomioida: 

  • Teknologinen näkökulma: kuinka se toimii? 
  • Sosiokulttuurinen näkökulma: kuinka se vaikuttaa yhteiskunnassa? 
  • Yksilön näkökulma: kuinka käyttää sitä?  

Miksi työkalujen teknistä toimintaa, vaikutusta yhteiskuntaan ja yksilön toimintaan tulisi arvioida ja ymmärtää?  Kristine N. Stewart (Mackey et al. 2025) esitti kansainvälisessä paneelissa konkreettisen esimerkin tekoälyn vinoumien arvioinnista opiskelijoidensa kanssa Arabiemiraattien Zayed yliopistossa. Stewart antoi opiskelijoille tehtäväksi tuottaa tekoälyllä kuvia käskyllä “luo kuvia tästä luentotilaisuudesta”. Useidenkaan yritysten jälkeen tekoäly ei onnistunut luomaan kuvaa, joka olisi heijastanut edes tyydyttävästi opiskelijoiden sukupuolijakaumaa, paikallista vaatetusta sekä etnistä taustaa. Parhaillaankin tekoäly loi erittäin stereotyyppisiä kuvia.  

Tämä esimerkki konkretisoi sitä, miten keskivertoamerikkalaista tai -eurooppalaista todellisuutta tekoäly yleensä generoi. Voi vain miettiä, kuinka tämä näkyy meidän opiskelijoidemme tiedonhaussa vaikeammin arvioitavista aiheista tai kun opiskelijalla ei ole kykyä arvioida vastauksen luotettavuutta itselleen uudesta aiheesta. 

Uskotaanko tekoälyä? 

Generatiivinen tekoäly laatii tyypillisesti tiivistelmiä ja koosteita, jotta aihepiiriin tutustuminen olisi helppoa. Kun tarkastellaan näiden koosteiden hyödyllisyyttä, törmätään tiedon arvioinnin dilemmaan; mitä vähemmän aihetta tuntee, sitä hyödyllisempi tekoälyn tuottama tiivistelmä on, mutta toisaalta myös sen arviointi on kaikkein vaikeinta, onhan aihe vieras. Mistä siis tietää, onko tieto oikeellista ja puolueetonta? Voidaan myös ajatella, että tekoälyn tuottama tiivistelmä olisi koostettu kaikkein parhaista lähteistä, ja siihen kriittisesti suhtautumiseen ei nähdä tarvetta. Onkin todettu, että tekoälyn tekemien virheiden paljastaminen lisää kriittisyyttä ja halua myös arvioida saatua tietoa. (Risbakk 2025; White 2025.) 

Entä onko aina selvää, mikä tieto on tekoälyn tuottamaa? Tekoälyn kehittyessä tekoälysisällön tunnistaminen on entistä vaikeampaa. Opiskelijat voivat pitää itseään hyvinä tunnistamaan tekoälyn luomaa sisältöä, mutta näin ei välttämättä ole. Toisaalta voidaan myös epäillä jo kaikkea mahdollista. (Motylińska & Pieczka-Węgorkiewicz 2025; Risbakk 2025; Yerbury ym. 2025.) 

Miten kirjasto sitten voi tukea vastuullista tekoälyn käyttöä? Kirjasto ei opiskelijoiden mielikuvissa näyttäytynyt paikkana, josta apua tekoälyn käytön pulmiin ensisijaisesti haetaan. Jos kirjaston näkökulma tekoälyyn keskittyy väärinkäytösten valvontaan ja varoitteluun riskeistä, emme ole haluttu kumppani, käyttöön tarvitaan pikemminkin tukea ja apua. Tärkeää on myös tuoda esiin, milloin ja mitä tekoälyä kannattaa käyttää, ja missä tilanteissa muut tavat ovat tehokkaampia. (Yerbury ym. 2025.) 

Tekoälyn käytön vaikutukset 

David White (2025) herätteli yleisöä pohtimaan, puhutaanko tekoälyn käytön yhteydessä riittävästi niistä taidoista, joita tekoälylle tehtäviä siirtäessämme emme enää harjoita itse. Mitä tapahtuu, kun luojasta tuleekin tarkistaja? Tekoäly mahdollistaa tuottavuuden silloinkin, kun emme välttämättä ole parhaimmillamme, sen avulla saamme nopeasti paljon aikaiseksi. Ensi näkemältä tämä vaikuttaa ihanteelliselta ratkaisulta kiireiseen työelämään, mutta kuinka kauan tekoäly voi tehdä tiettyä tehtävää puolestasi niin, ettet tule siitä riippuvaiseksi ja osaat vielä tarvittaessa tehdä tehtävän myös itse? Jos tekoälyllä tehtyä tekstiä käsitellään tekoälyllä tiivistäen ja promptataan tekoäly antamaan tekstistä palautetta, keskustelevat tekoälyt keskenään tuottaen keskimääräisiä tuloksia. Tässä on vaarana todellisuuspohjan katoaminen. Ja toki ei voida unohtaa myöskään tekoälyn käytön ympäristövaikutuksia, joista on saatavilla osin ristiriitaistakin tietoa.

Kuva 1. David Whiten mukaan tekoäly mahdollistaa tahattoman tuottavuuden.

Toki tekoälyn käytössä on paljon myös positiivisia vaikutuksia ja mahdollisuuksia, kuten syöpien esiasteita kuvantamisesta tunnistavat algoritmit tai sääilmiöitä ennustavat mallit. Ehkä yhtenä haasteena on myös se, että tekoälypuheessa puhutaan usein erityisesti laajojen kielimallien ongelmista, kuten hallusinoinnista tai vinoumista, kun tekoälytyökaluja on paljon muitakin, eikä niitä kaikkia voi niputtaa ongelmitta yhteen.  

Tekoälyn inhimillistäminen

Tekoälystä puhuttaessa käytetään usein kielikuvia: tekoäly voi olla velho, asiantuntija tai jopa jumala. Käytetyissä kielikuvissa toistuu usein luovuus, ymmärrys ja oppiminen, eli juuri ne piirteet, joita on perinteisestä käytetty kuvaamaan ihmisten ja koneiden/teknologien eroa.  

Generatiivisten kielimallien kanssa keskustellessa on helppo ajatella, että ne ’ymmärtävät’ mitä käyttäjä tarkoittaa, sillä keskustelu on usein sujuvaa ja ne voivat jopa vaikuttaa empaattisilta. Generatiiviset kielimallit viittaavat itseensä persoonapronomineilla ja pyytävät anteeksi virheitään, myös silloin kuin ne eivät ole väärässä – ovathan ne täydellisiä asiakaspalvelijoita. Se, että tekoälystä puhuttaessa käytetään samaa kieltä kuin ihmisten oppimisesta ja luovuudesta, hämärtää rajaa ihmisten ja teknologian välillä. On eri asia puhua tekstin tuottamisesta kirjoittamisena tai luomisena kuin generointina, generointi on paljon persoonattomampaa. White (2025) huomauttikin esityksessään, että meiltä puuttuu sanasto puhua tekoälystä neutraalisti, antamatta sille inhimillisiä kykyjä tai ominaisuuksia. 

Jos tekoäly ei ymmärrä, niin voiko se oppia? Schmid (2025) muistutti esityksessään, että tekoälyjen koulutukseen tarvitaan edelleen ihmisiä. Ihmiset luokittelevat datan, jolla tekoälyt koulutetaan. Ilman tätä luokittelua tekoäly ei välttämättä ’oppisi’ mitään. Ihmiset myös arvioivat onko koulutus onnistunut ja tekevät viilauksia ja säätöjä tekoälyyn.  

Aina ystävällinen generatiivinen kielimalli 

Generatiiviset kielimallit on koulutettu miellyttäviksi keskustelukumppaneiksi. Chattibotit harvoin haastavat tai kyseenalaistavat keskustelukumppaniaan, vaikka tämä olisi selvästi väärässä. Jos huomautat kielimallille sen tekemästä virheestä, saat pahoittelut ja korjauksen, joka myötäilee mielipidettäsi. Keynote-puhuja Andrew Cox (2025) antoi tästä esimerkin. Hän antoi ChatGPT:lle saksanpaimenkoiran kuvan pyytäen tätä tunnistamaan eläimen. ChatGPT tunnisti eläimen oikein koiraksi. Cox oli kuitenkin jatkanut keskustelua sanomalla, että kuvassa ei ole saksanpaimenkoira, vaan kuvassa on kissa. ChatGPT oli pyytänyt anteeksi virhettään ja kertonut, että kuvassa tosiaan on kissa ja jatkanut keskustelua kissoista.

Cox ei ollut konferenssin ainoa puhuja, joka oli kokeillut keskustelua kielimallien kanssa. Pontus Juth (2025) oli testannut kirjastojärjestelmä Primon Research Assistant-tekoälyä kysymällä lähteitä koiran viulunsoiton opettamiseen. Research Assistant oli antanut vastauksen, tosin lähteet joihin vastauksessa viitattiin, puhuivat lasten viulunsoiton opettamisesta. Tekoälyn tuottamassa tiivistelmässä puhuttiin kuitenkin sujuvasti koirien viulunsoiton opettamisesta, eli vaikka järjestelmä käyttää lähteenä tieteellisiä artikkeleita, voi hallusinaatiota silti tapahtua.  Tämä ominaisuus on onneksi jo korjattu, tai sitten kissojen kitaransoiton oppiminen on paljon epätodennäköisempää kuin koirien viulunsoiton oppiminen, sillä Primon Research Assistant vastasi, että tästä aiheesta ei ole tutkimusta, kun tätä kokeiltiin lokakuussa LUT-tiedekirjaston Primossa.

On hyvä pitää mielessä, että generatiiviset tekoälyt ja niihin pohjautuvat chattibotit ovat kaupallisia tuotteita. Niiden tarkoitus on pitää asiakkaat tyytyväisenä, ei kasvattaa kriittisiä ajattelijoita tai uteliaita tiedonetsijöitä. 

Inhimillisten piirteiden liittäminen teknologiaan ei ole uusi ilmiö. Jo 1960-luvulla MIT:ssa kehitetyn chattibotin kanssa keskustelevat käyttäjät olettivat botin olevan älykäs ja ymmärtävän heitä. Tästä ilmiöstä käytetään nimeä Eliza-efekti tämän ensimmäisen chattibotin mukaan. (Schmid 2025). 

Kuva 2. Näkymä Bambergin vanhan kaupungin kadulta.

Primo tekoälyavustajan henkilökunnan käyttökokemukset esillä 

Essi Prykäri ja Riikka Sinisalo (2025) LUT-tiedekirjastosta kertoivat Best practice -esityksessään LUT-yliopiston ja LAB-ammattikorkeakoulun henkilöstön kokemuksia Primo tekoälyavustajasta. Primo tekoälyavustaja tuli käyttöön alkuvuodesta 2025. Ennen käyttöönottoa LUT-tiedekirjastossa haluttiin selvittää henkilökunnan näkemyksiä tekoälyavustajan hyödyllisyydestä sekä mahdollisesta lisäohjeistuksen tarpeesta. Näkemyksiä selvitettiin sekä kyselyn että haastattelujen avulla.  

Henkilökunta suhtautui tekoälyavustajaan myönteisesti ja henkilökunnan käyttökokemukset olivat pääsääntöisesti positiivisia. Tekoälyhaulla saa nopeasti yleiskuvan tiedontarpeestaan ja lisälähteitä aiheeseen perehtymistä varten. Haasteitakin tuli esiin, konekäännökset aiheuttivat välillä tiivistelmässä erikoisia sanavalintoja ja etenkin suomenkielistä materiaalia oli vaikea löytää, mikä toki onkin loogista, perustuvathan tekoälyavustajan hakutulokset Exlibriksen kansainvälisiä aineistoa sisältävään Central Discovery Indexiin. Tekoälyavustaja ei myöskään osaa vastata kaikkiin kysymyksiin, kuten viitatuimmat artikkelit tietystä aiheesta. Todettiinkin että “avustaja” on nimenä hieman harhaanjohtava, palvelu kun lähinnä tekee haun ja tiivistelmän. 

Käyttöönoton yhteydessä palvelu nimettiin uudelleen tekoälyhauksi. Käyttöönoton jälkeen palvelusta on kerrottu tiedonhankinnan opetusten yhteydessä. Tarkasteltaessa tekoälyhaun käyttöönottoaktiivisuutta ensimmäisinä kuukausina havaittiin, että tekoälyhakua ja tarkennettua hakua käytettiin lähes yhtä paljon, mutta merkittävästi vähemmän kuin perushakua. Esityksestä voit lukea lisää myös Sheila Webberin (2025) blogista. 

Yhteenveto 

Tekoälyn käyttö ja hyödyntäminen kiinnostaa ja herättää ajatuksia kirjastoalalla nyt laajasti. Tyypilliset konferenssissa esitellyt tekoälyn opetuskokemukset olivat työpajoja, ja mallit, jotka vaikuttavalla tavalla opettaisivat tekoälyn käyttöä suurille opiskelijamassoille ovat vielä pohdinnan alla. Lisäksi tekoälylukutaidosta käytiin moninaista keskustelua: toisaalta sen nähtiin olevan informaatiolukutaidon alakäsite, toisaalta ihan oma lukutaitonsa, johon sisältyy teknisen ymmärryksen lisäksi tekoälyn käytön yhteiskunnallisten ja ympäristövaikutusten ymmärrys – tai vaikka osa medialukutaitoa. Myös tekoälylukutaidon määritelmiä on useita.  

Käytäntö varmasti näyttää, millaisen paikan tekoäly lopulta saa osana informaatiolukutaidon opetusta ja ohjausta. Generatiivisen tekoälyn koko ajan kehittyessä tietyt huolenaiheet voivat myös poistua, toisaalta tilalle saattaa tulla uusia.  Kirjastoalalla käynnissä oleva hyvä keskustelu ja jaetut kokemukset auttavat osaltaan opetuksen suunnittelua myös ammattikorkeakoulukirjastoissa. 

Lähteet

  • Cox, A. 2025. The Dimensions of AI Literacy. Esitys ECIL-konferenssissa 22.9.2025.
  • Juth, P. 2025. RAG in Research: Evaluating AI-Driven Literature Search Tools. Esitys ECIL-konferenssissa 24.9.2025.
  • Mackey, T., Van Wyk, B., Eberhardt-Alstot, M., Stewart, K., Schuster, K. & Moyo, M. 2025. Humans in the Loop: Advancing Metaliteracy for Generative AI Learning Environments. Esitys ECIL-konferenssissa 23.9.2025.
  • Motylińska, P. & Pieczka-Węgorkiewicz, A. 2025. Self-Assessment of the Polish Students’ Artificial Intelligence Literacy in the Context of AI-Generated Content Detection. Esitys ECIL-konferenssissa 24.9.2025.
  • Prykäri, E. & Sinisalo, R. 2025. Faculty Views on Generative AI Tools – Case: Primo Research Assistant. Esitys ECIL-konferenssissa 22.9.2025.
  • Risbakk, J. 2025. A Rapid Literature Review on Generative AI, Misinformation and the Need for Media, Information and AI Literacy. Esitys ECIL-konferenssissa 22.9.2025.
  • Schmid, U. 2025. AI Literacy – Why Basic Understanding of AI Methods is Relevant for Save, Efficient, and Reflected Use of AI-Tools. Esitys ECIL-konferenssissa 23.9.2025.
  • Webber, S. 2025. Faculty Views on Generative AI Tools – Case: Primo Research Assistant #ECIL2025. Viitattu 24.11.2025. Saatavissa https://information-literacy.blogspot.com/2025/09/faculty-views-on-generative-ai-tools.html
  • White, D. 2025. What is Even Real Anymore? – The Case for Personal Agency Being at the Forefront of What it Means to be Literate. Esitys ECIL-konferenssissa 24.9.2025
  • Yerbury, H., Johnston, N., Henninger, M. & Degiorgio, D. 2025. Being Information Literate or Having Academic Integrity. Esitys ECIL-konferenssissa 24.9.2025

Kirjoittajat

Minna Marjamaa

asiantuntija

Laurea-ammattikorkeakoulu

Kirjoittajan muut artikkelit

Essi Prykäri

Tietoasiantuntija

Essi Prykäri toimii tietoasiantuntijana LUT-yliopistoa ja LAB-ammattikorkeakoulua palvelevassa LUT-tiedekirjastossa.

Kirjoittajan muut artikkelit

Riikka Sinisalo

Tietoasiantuntija

Riikka Sinisalo toimii tietoasiantuntijana LUT-yliopistoa ja LAB-ammattikorkeakoulua palvelevassa LUT-tiedekirjastossa.

Kirjoittajan muut artikkelit

Kommentit

Jätä kommentti