Tekoälyn lukutaito – avain vastuulliseen tekoälyn käyttöön

Tekoäly on yhä vahvemmin läsnä jokapäiväisessä elämässämme, ja sen vaikutukset ulottuvat niin työelämään, päätöksentekoon kuin henkilökohtaiseen arkeemmekin. Tekoäly ei ole vain tekninen työkalu, se on myös kulttuurinen ja yhteiskunnallinen ilmiö, ja sen käyttö vaatii meiltä kaikilta uudenlaista osaamista. Puhumme tekoälyn lukutaidosta - taidosta, joka tarkoittaa kykyä ymmärtää, arvioida ja hyödyntää tekoälyä kriittisesti ja vastuullisesti.

TEKSTI | Anna-Kaisa Saari
Artikkelin pysyvä osoite http://urn.fi/URN:NBN:fi-fe2025031818797
Keltainen muistilappu, johon on kirjoitettu mustalla AI, ympärillä värillisiä muistilappuja, joissa on kysymysmerkkejä.

Mitä tekoälyn lukutaito tarkoittaa?

Tekoälyn lukutaito ei ole siis pelkästään tekninen taito, se koostuu useista osa-alueista. Tekoälyn lukutaito sisältää ymmärryksen siitä, miten tekoäly toimii, mitkä ovat sen rajoitteet, ja miten se voi vaikuttaa yksilöihin ja yhteiskuntaan. Lukutaitoon kuuluu myös kyky erottaa luotettava ja epäluotettava tekoälypohjainen informaatio sekä osaaminen arvioida tekoälyn tuottamien sisältöjen ja päätösten oikeellisuutta ja eettisyyttä.

Tekoälyjärjestelmät kehittyvät jatkuvasti. Näinpä tekoälyn lukutaitokaan ei ole mikään staattinen taito, se vaatii jatkuvaa oppimista ja sopeutumista. Onkin tärkeää, että sekä yksilöt että organisaatiot ymmärtävät tekoälyn vaikutukset ja osaavat käyttää sitä vastuullisesti.

Tekoälyn riskit ja haasteet

Tekoäly tuo mukanaan merkittäviä mahdollisuuksia, mutta samalla siihen liittyy useita riskejä, joita tekoälyn lukutaitoiset henkilöt ja organisaatiot voivat oppia tunnistamaan ja hallitsemaan. Näitä riskejä ovat esimerkiksi hallusinaatiot, syrjivät algoritmit, deepfake teknologia, tietovuodot ja tekoälyn manipulointi.

Generatiiviset tekoälymallit, kuten kielimallit ja kuvageneraattorit, voivat luoda täysin keksittyjä tai virheellisiä sisältöjä. Yleisesti puhutaan tekoälyn hallusinaatiosta. Hallusinaatio voi johtaa harhaanjohtavaan informaatioon ja väärien päätösten tekemiseen, jos käyttäjä ei osaa kriittisesti arvioida tekoälyn tuottamaa tietoa. Tästä yksi ennakkotapaus on Yhdysvalloista vuodelta 2023. Tuolloin kaksi yhdysvaltalaista lakimiestä käytti ChatGPT:tä oikeudenkäyntiasiakirjojen laatimiseen ja luotti tekoälyn tarjoamiin oikeustapauksiin tarkistamatta niiden paikkansapitävyyttä. (The Guardian, 2023.)

Tekoälymallit oppivat datasta. Jos data sisältää ennakkoluuloja tai vinoumia, voivat myös tekoälyn päätökset olla syrjiviä. Amazon kehitti tekoälypohjaisen rekrytointijärjestelmän, jossa algoritmi oli oppinut arvioimaan hakijoita aiempien palkkauspäätösten perusteella. Teknologia-alalla miehet ovat perinteisesti enemmistä, ja tästä seurasikin, että algoritmi suosi miehiä. (Reuters, 2018.)

Tekoälyllä voidaan tuottaa äärimmäisen realistisia väärennettyjä kuvia, videoita ja ääntä, jotka voivat levittää misinformaatiota tai käyttää hyväksi ihmisten luottamusta. Tämä on erityisen riskialtista politiikassa, mediassa ja yritysmaailmassa. Tästä viime syksyltä esimerkki, jossa Luxemburgin keskuspankin johtajan väitettiin tukevan petollista sijoitussuunnitelmaa (Central banking, 2024).

Tekoälyjärjestelmät käsittelevät valtavia määriä dataa. Julkiset tekoälymallit tallentavat usein käyttäjien syöttämät tiedot oppimisprosessiaan varten, ja väärin hallinnoituna palvelut voivat vuotaa arkaluontoisia tietoja. Tekoälyä hyödyntävä chatbot voi vahingossa paljastaa käyttäjän henkilötietoja, jos se on koulutettu huonosti suojattuun aineistoon. Esimerkiksi teknologiayhtiö Samsung esti työntekijöiltään ChatGPT:n käytön, kun kävi esille, että heidän insinöörinsä olivat käyttäneet tekoälyä optimoidakseen ohjelmistokoodia ja syöttivät yhtiön salaisia teknisiä tietoja palveluun. (Forbes, 2023.)

Pahantahtoiset toimijat voivat käyttää tekoälyä myös vaikuttamiseen, esimerkiksi sosiaalisen median algoritmien manipulointiin, valeuutisten luomiseen tai väärän tiedon levittämiseen. Ilman riittävää tekoälyn lukutaitoa käyttäjät voivat helposti joutua tällaisen manipuloinnin kohteiksi. Tekoälyn lukutaitoiset käyttäjät taas ymmärtävät nämä riskit, osaavat käyttää tekoälyä kriittisesti, tunnistaa mahdolliset vaaran paikat ja arvioida, miten ja missä teknologiaa voi hyödyntää turvallisesti ja vastuullisesti.

Tekoälyn lukutaito osana EU AI Actia

Euroopan unionin EU AI Act -säädös asettaa velvoitteita tekoälyjärjestelmien käyttäjille. Tähän sisältyy vaatimus koulutuksesta. Organisaatioilla, jotka ottavat tekoälyn käyttöön, on lakisääteinen vastuu varmistaa, että työntekijät ymmärtävät käyttämänsä tekoälyjärjestelmien toimintaperiaatteet ja vaikutukset. Tämä vaatimus astui voimaan helmikuussa 2025. (European union, 2024.)

Säädöksessä ei kuitenkaan tarkasti määritellä, millainen koulutus on riittävä, joten yrityksillä ja muilla organisaatioilla on mahdollisuus päättää, panostavatko ne ainoastaan operatiiviseen koulutukseen vai laajempaan tekoälyn ymmärtämiseen. Kapeasti määritelty koulutus voi keskittyä vain järjestelmien käytön opetteluun, kun taas kattavampi koulutus kehittää työntekijöiden kykyä arvioida kriittisesti tekoälyn tuottamia tuloksia ja sen mahdollisia vinoumia.

Tekoälyn lukutaidon merkitys organisaatiolle

Organisaatioille tekoälyn lukutaito ei ole pelkästään sääntelyn noudattamista, vaan myös strateginen kilpailuetu. Kun henkilöstö ymmärtää tekoälyn mahdollisuudet ja riskit, yritykset voivat hyödyntää tekoälyä tehokkaammin ja samalla välttää virheellisiä tai eettisesti kyseenalaisia päätöksiä.

Hyvin koulutettu henkilöstö pystyy tunnistamaan tekoälyn käyttöön liittyvät haasteet ja puuttumaan niihin ajoissa. Tämä voi tarkoittaa esimerkiksi algoritmisten vinoumien havaitsemista rekrytointijärjestelmissä tai tietosuojariskien ymmärtämistä asiakasdatan käsittelyssä. Työntekijät, joilla on vahva tekoälyn lukutaito, voivat auttaa organisaatioita innovoimaan ja kehittämään uusia, tekoälyä hyödyntäviä ratkaisuja.

Tekoälyn lukutaito yksilötasolla

Myös yksilöt hyötyvät tekoälyn lukutaidosta monin tavoin. Tekoälyä hyödynnetään laajasti esimerkiksi uutisten suodattamisessa, hakukonealgoritmeissa ja sosiaalisen median suositusjärjestelmissä. Ymmärtämällä miten tekoäly muokkaa saamaamme informaatiota, voimme suhtautua siihen kriittisesti ja tehdä parempia päätöksiä.

Tekoäly vaikuttaa myös työmarkkinoihin. Uudet teknologiat muuttavat työnkuvia ja edellyttävät jatkuvaa oppimista. Tekoälyn lukutaitoiset työntekijät ovat kilpailukykyisempiä työmarkkinoilla ja voivat mukautua paremmin teknologian kehityksen tuomiin muutoksiin.

Tekoälyn lukutaito on siis välttämätön taito niin yksilöille kuin organisaatioillekin. Se ei ole vain teknistä osaamista, vaan myös kykyä ymmärtää tekoälyn vaikutuksia ja sen perusteella tehdä oikeita ja vastuullisia päätöksiä. EU AI Act toi tekoälyn lukutaidon vaatimuksena organisaatiolle. Pakon ja negatiivisuuden sijaan organisaatioiden olisi syytä nähdä tekoälyn lukutaito mahdollisuutena – investoimalla henkilöstön osaamiseen ne voivat varmistaa, että tekoälyn käytöstä saadaan paras mahdollinen hyöty turvallisesti ja eettisesti. Tehtäisiinkö osaamismerkki tai yrityksen oma sisäinen sertifikaatti tekoälyn lukutaidosta?

Lähteet
  • The Guardian, 2023: https://www.theguardian.com/technology/2023/jun/23/two-us-lawyers-fined-submitting-fake-court-citations-chatgpt

  • Reuteres, 2018: https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/

  • Central banking, 2024: https://www.centralbanking.com/central-banks/governance/people/7961532/luxembourg-governor-becomes-victim-of-deepfake-attack

  • Forbes, 2023: https://www.forbes.com/sites/siladityaray/2023/05/02/samsung-bans-chatgpt-and-other-chatbots-for-employees-after-sensitive-code-leak/

  • European union, 2024: https://ec.europa.eu/commission/presscorner/api/files/document/print/en/qanda_21_1683/QANDA_21_1683_EN.pdf

Aiheeseen liittyvää