EU AI Act – ensimmäinen kattava tekoälyä koskeva säätely

Tekoälyn nopea kehitys tuo mukanaan huikeita mahdollisuuksia, mutta myös merkittäviä eettisiä ja oikeudellisia haasteita. Euroopan unioni on vastannut näihin haasteisiin luomalla EU AI Actin, maailman ensimmäisen kattavan tekoälysäätelyn. Sen tavoitteena on hallita tekoälyn riskejä ja varmistaa sen turvallinen ja eettinen käyttö.

TEKSTI | Anna-Kaisa Saari
Artikkelin pysyvä osoite http://urn.fi/URN:NBN:fi-fe2025032119984
Sininen Euroopan kartta, etualalla Euroopan unionin 12 tähteä ja keskellä teksti AI Act

Miksi EU AI Act on tarpeellinen?

Tekoälyn riskit liittyvät erityisesti terveyteen, turvallisuuteen ja perusoikeuksiin. Esimerkiksi terveydenhuollossa tekoälypohjaisten diagnostiikkajärjestelmien virheet voivat johtaa vakaviin seurauksiin. Myös automaattinen päätöksenteko voi vaikuttaa oikeudenmukaisuuteen ja tasa-arvoon esimerkiksi rekrytoinneissa tai oikeuskäytännöissä. Tämän lisäksi tekoäly voi horjuttaa demokratiaa, manipuloida tietoa ja vahvistaa suurten toimijoiden valta-asemaa. Sääntelyn tavoitteena onkin varmistaa, että tekoälyn kehitys tapahtuu vastuullisesti ja yhteiskunnan kestävyyttä tukien.

Riskiperusteinen sääntely ja tekoälymalleihin kohdistuvat velvoitteet

EU AI Act luokittelee tekoälyjärjestelmät niiden aiheuttaman riskitason mukaan. Näitä riskitasoja on neljä: kestämätön, korkea, rajoitettu ja vähäinen.

Kestämättömän riskin järjestelmät ovat järjestelmiä, jotka uhkaavat vakavasti ihmisoikeuksia ja turvallisuutta. Tähän kategoriaan kuuluvat esimerkiksi biometrinen tunnistus massavalvontatarkoituksessa tai järjestelmät, jotka manipuloivat ihmisten käyttäytymistä tavalla, joka voi aiheuttaa haittaa. Nämä järjestelmät on kielletty kokonaan.

Korkean riskin järjestelmät ovat järjestelmiä, jotka voivat aiheuttaa merkittävää haittaa ihmisten turvallisuudelle tai heidän perusoikeuksilleen (kuten EU:n perusoikeuksien julistuksessa suojellut oikeudet). Ne eivät ole kiellettyjä, mutta niiden käyttö edellyttää tiukkaa sääntelyä. Näihin kuuluvat esimerkiksi tekoälyjärjestelmät, joita käytetään terveydenhuollossa, ihmisten profiloinnissa ja rikollisten riskin arvioinnissa tai pankkien luottoluokituksissa. Koska näillä järjestelmillä on suora vaikutus yksilöiden oikeuksiin ja elämään, niiltä vaaditaan tiukkaa sääntelyä ja läpinäkyvyyttä.

Rajoitetun riskin järjestelmät ovat järjestelmiä, joissa vaaditaan jonkin verran läpinäkyvyyttä, mutta joiden käyttö yleisesti on sallittua. Näihin kuuluvat esimerkiksi chatbotit, jotka kommunikoivat käyttäjien kanssa. Näiden osalta käyttäjille on aina selkeästi ilmoitettava, milloin he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa.

Vähäisen riskin järjestelmät ovat sellaisia, joita voidaan käyttää ilman erityisiä sääntelyvaatimuksia. Tällaisia ovat esimerkiksi tekoälypohjaiset suositusalgoritmit musiikkipalveluissa tai automaattiset tekstinkorjausohjelmat. Näitä järjestelmiä pidetään sen verran harmittomina, että ne eivät edellytä sen kummempia valvontatoimia.

Ketkä kuuluvat sääntelyn piiriin?

EU AI Actin sääntely kohdistuu kahteen päätoimijaryhmään: tekoälyjärjestelmien tarjoajiin ja käyttäjiin.

Tekoälyjärjestelmien tarjoajat (providers) ovat niitä tahoja, jotka kehittävät tai saattavat markkinoille tekoälyjärjestelmiä. Yleensä näitä ovat suuret teknologiayritykset, ohjelmistokehittäjät tai jopa tutkimuslaitokset, jotka kehittävät tekoälypohjaisia ratkaisuja. Näille toimijoille asetetaan tiukkoja vaatimuksia esimerkiksi järjestelmän dokumentoinnista, riskienhallinnasta ja läpinäkyvyydestä. Tekoälyjärjestelmien käyttäjät (deployers) puolestaan ovat organisaatioita tai yksityisiä tahoja, jotka ottavat tekoälyratkaisuja käyttöönsä. Näihin käyttäjiin kuuluvat esimerkiksi yritykset, viranomaiset ja muut yhteisöt, jotka käyttävät tekoälyä päätöksenteossa tai palveluidensa kehittämisessä. Käyttäjillä on velvollisuus varmistaa, että heidän käyttämänsä järjestelmät täyttävät sääntelyn vaatimukset ja että henkilöstölle tarjotaan riittävä koulutus tekoälyratkaisujen ymmärtämiseen ja vastuulliseen käyttöön.

On huomioitava, että sääntely ulottuu myös EU:n ulkopuolisiin toimijoihin, mikäli heidän tekoälyjärjestelmänsä vaikuttavat EU:ssa toimiviin yrityksiin tai kansalaisiin. Tämä tarkoittaa, että globaalit teknologiayritykset, jotka haluavat tarjota palveluitaan Euroopan markkinoilla, ovat velvoitettuja noudattamaan EU AI Actin sääntöjä.

EU AI Actin käyttöönottoaikataulu

EU AI Act hyväksyttiin heinäkuussa 2023, ja asetus tuli voimaan elokuussa 2024. Asetuksen käyttöönotto tapahtuu asteittain elokuuhun 2027 mennessä. Tällä hetkellä käynnissä on siirtymäkausi, jonka aikana yritysten ja muiden toimijoiden odotetaan valmistautuvan uuden sääntelyn noudattamiseen. Sääntely alkaa vaikuttaa vaiheittain eri riskiluokkien mukaan: kielletyt tekoälysovellukset olivat ensimmäisiä, joita sääntely koski, ja niihin liittyvät vaatimukset tulivat voimaan nyt helmikuussa 2025. Samalla tuli voimaan vaatimukset, jotka koskevat tekoälylukutaitoa.

Käyttöönoton edetessä EU:ssa tullaan perustamaan valvonta- ja raportointimekanismeja, joilla seurataan säädösten noudattamista ja mahdollisia päivitystarpeita. Yritysten ja organisaatioiden kannattaakin nyt varautua sääntelyn vaikutuksiin ja arvioida, miten heidän käyttämänsä tekoälyjärjestelmät osuvat eri riskiluokkiin ja mitä vaatimuksia niihin kohdistuu. EU AI Act:n rikkomisesta määrättävät sakot voivat korkeimmillaan olla jopa 35 miljoonaa euroa tai 7 % edellisen vuoden liikevaihdosta sen mukaan kumpi on korkeampi (European Commission, 2024). Verrokkina, GDPR:n rikkomiseen sakot ovat olleet suuria, vaihdellen 500 euron ja 200 miljoonan euron välillä (Merkurius, 2020). Esimerkiksi vuonna 2024 GDPR-sakkoja määrättiin 1.2 miljardin euron arvosta (Lexology, 2025).

Sääntelyn vaikutukset ja tulevaisuuden näkymät

EU:n sääntelylinja on herättänyt paljon keskustelua. Toisaalta sääntelyä pidetään välttämättömänä perusoikeuksien turvaamiseksi, mutta toisaalta pelätään, että liiallinen sääntely hidastaa innovaatioita ja jättää EU:n jälkeen tekoälyn kehityksessä. Yhdysvallat ja Kiina on jo nyt tekoälykehityksessä Eurooppaa huimasti edellä, ja EU:n säädösten spekuloidaan kasvattavan tätä välimatkaa entisestään. Nyt kun riskiluokkia katsoo, huomaa, että sääntelyn tarkoituksena on luoda turvallinen ja reilu toimintaympäristö, joka pitkällä aikavälillä vahvistaa myös Euroopan kilpailukykyä – se on meistä itsestä kiinni!

Tekoälyn tulevaisuus riippuu siis siitä, miten hyvin vastuullisuus ja innovaatio voidaan yhdistää. Ei mennä sen tekosyyn taakse, että EU:n säätely estää meitä tekemästä asioita, ja jättää asioita tekemättä. Kyllä, EU AI Act luo raamit, mutta niiden raamien puitteissa on kuitenkin maailma auki! 

Aiheeseen liittyvää