Historia opettaa – tiedon väärinkäyttö ja sen seuraukset
Historia on täynnä esimerkkejä siitä, miten tiedon hallintaa on käytetty valtaa pönkittämään. Neuvostoliitossa Stalin käytti propagandaa ja tiedon manipulointia luodakseen pelon ilmapiirin, jossa totuus tukahdutettiin ja valheista tehtiin todellisuutta. Erityisen karu esimerkki on kulakkien kohtalo: Valtaapitävä valtion hallinto leimasi vauraat talonpojat ”kansanvihollisiksi”, ja valheellinen tieto johti miljoonien karkotuksiin ja kuolemiin. Tiedon hallinta muuttui siis hallinnon työkaluksi, joka murskasi yhden yhteiskuntaluokan lähes kokonaan.
Tuoreempiakin esimerkkejä tiedon hallinnan väärinkäytöstä löytyy. Myanmarin vuosien 2016–2017 etninen puhdistus on karu esimerkki siitä, miten sosiaalisen median algoritmit voivat levittää vihaa ja kiihdyttää väkivaltaa. Tässä tapauksessa Facebookin tekoälypohjaiset taloudellista hyötyä tavoittelevat algoritmit priorisoivat seuraajille näytettävää sisältöä, joka herättää voimakkaita tunteita, ja tämä johti rohingya-muslimeja vastaan suunnatun vihapuheen leviämiseen ja suuriin väkivaltaisuuksiin.
Tekoälyn uhkia
Historia osoittaa, että ihmiset ovat taipuvaisia seuraamaan auktoriteettien ja muiden valta-asemassa olevien tahojen esittämiä näkemyksiä. Tekoälyn kyky tuottaa itsenäisesti julkista sisältöä on herättänyt huolta materiaalin alkuperästä ja luotettavuudesta. Enää ei voi aina varmuudella tietää, kuka on vastuussa sisällön tuottamisesta.
Tekoälyn kehitys tuo mukanaan myös uusia uhkia. Iranista löytyy esimerkki siitä, miten tekoälyä käytetään kansalaisten kontrolloimiseen autoritaarisissa yhteiskunnissa. Vuonna 2023 hallinto asensi valvontakameroita, jotka oli varustettu kasvojentunnistusteknologialla ja tekoälyalgoritmeilla. Näiden järjestelmien tehtävänä oli tarkkailla julkisia tiloja ja esimerkiksi tunnistaa naisia, jotka eivät noudattaneet hijab-lakia. Tekoälypohjainen valvonta lisäsi entisestään ahdistuksen ja pelon ilmapiiriä erityisesti naisten keskuudessa. Monet kokivat, että heidän liikkumisensa ja itseilmaisunsa rajoitettiin entistä ankarammin.
Tekoälyjärjestelmät eivät myöskään ole immuuneja ihmisten ennakkoluuloille. Esimerkiksi rekrytointiprosesseissa käytetyt tekoälyalgoritmit ovat paljastaneet, että ne voivat vahvistaa jo olemassa olevia syrjiviä käytäntöjä ja epätasa-arvoa. Historiallinen data, joka heijastaa esimerkiksi rotuun tai sukupuoleen perustuvaa syrjintää, voi johtaa siihen, että tekoäly tekee vinoutuneita päätöksiä.
Tekoälyn mahdollisuuksia
Tekoäly ei onneksi ole pelkkiä negatiivisia esimerkkejä. Se tarjoaa myös lukemattomia mahdollisuuksia. Työn tehostuminen ja oppimisen helpottuminen ovat yksilötason esimerkkejä. Liiketoiminnassa tekoälyn hyödyntämisalueita on paljon. Yhteiskuntatasolla vaikuttavimmat hyödyt oletettavasti saadaan lääketieteen ja ympäristön suojelun sektorilla. Lääketieteessä tekoäly voi analysoida suuria tietomääriä nopeammin kuin ihminen. Tämä nopeuttaa lääkkeiden kehittämistä ja sairauksien diagnosointia. Googlen DeepMind on jo onnistunut mallintamaan proteiinien rakenteita, joka voi tulevaisuudessa johtaa uusiin läpimurtoihin syöpähoidoissa. Myös ympäristön suojelu voi hyötyä tekoälystä: esimerkiksi tuulivoiman tuotantoa voidaan optimoida tekoälyalgoritmien avulla ja lisätä näin uusiutuvan energian käyttöä. Tekoäly ihmisen tukena ja hyvään valjastettuna tarjoaa mahtavia hyötyjä nyt ja tulevaisuudessa.
Pitäisikö tekoälyn kehitys pysäyttää?
Ei tietenkään ole realistista yrittää estää tekoälyn kehitystä, mutta sen haitallisia vaikutuksia pitää yrittää minimoida, esimerkiksi kansainvälisen yhteistyön ja sääntelyn avulla. EU:n tekoälyasetus ja Kanadan tekoälyvastuusopimus ovat esimerkkejä siitä, miten yhteiskunnat voivat asettaa rajoja teknologian käytölle. Toisaalta mahtivaltiot Kiina ja Amerikka eivät juurikaan säätele käyttöä, ja taloudellinen kasvaminen menee tulevaisuuden riskien edelle: riskinä onkin jäädä Euroopassa kehityksestä jälkeen.
Tekoälylukutaitoa on myös kasvatettava. Kansalaisten tietoisuuden lisääminen auttaa ymmärtämään tekoälyn toimintaa ja riskejä. Eettiset rajat pitää voida asettaa, sotilaalliset ja ihmisoikeuksia sortavat sovellukset on asetettava tiukkojen rajoitusten alaisiksi. Tekoälyjärjestelmät on tehtävä läpinäkyviksi, ja niiden toiminnasta on vastattava selkeästi. Algoritmien toimintaa on avattava, ja riippumattomien tahojen on tarkastettava järjestelmien vaikutuksia säännöllisesti. Toisaalta taas valtaa ei saa keskittää yksittäisten yritysten tai valtioiden käsiin. Teknologian kehitys ja hallinta on hajautettava ja avattava useille toimijoille. Tämä estää monopoleja ja lisää demokratian toteutumista. Tekoälyn ei tule saada tehdä päätöksiä, jotka vaikuttavat merkittävästi ihmisten elämään, kuten oikeudellisia tai sosiaalisia päätöksiä, ilman ihmisen hyväksyntää.
Hyvä esimerkki tiedon hallinnasta, avoimuudesta tai suljetusta ympäristöstä ja tekoälylukutaidostakin on kiinalaisten tammikuun lopussa julkistama DeepSeek tekoälysovellus: todella tehokas, nopea ja kustannuksiltaan huomattavasti edullisempi kuin mikään muu nyt markkinoilla oleva generatiivinen tekoäly. Jokainen on varmaan nähnyt uutisia ja videoita siitä, miten DeepSeek kieltäytyy vastaamaan esimerkiksi Tiananmenin aukion tapahtumiin, aloittaen ensin vastaamisen mutta sitten kieltäytyen ” Valitettavasti tuo ei kuulu nykyiseen osaamisalueeseeni. Voidaan jutella jostain muusta!”. Tekoälymalli siis antaa vastauksen, mutta sensuurikerros päällä estää vastauksen näyttämisen lukijalle. Tai jos se vastaa, niin vastaukset ovat olleet ympäripyöreitä ja jopa valheita Kiinan syyllisyydestä. Herää kysymys, kuka hallitsee tietoa, tai miten avointa se on? Toisaalta, mitä minun tekoälylle syöttämälleni tiedolle tapahtuu? Mihin sitä käytetään?
Valinta on meidän
Tekoäly tuo mukanaan mahdollisuuksia, mutta myös riskejä. Ihan varmasti se voi auttaa ratkaisemaan maailman suurimpia ongelmia, ilmastonmuutosta tai terveydenhuollon kriisejä. Samalla se kuitenkin voi myös uhata demokratiaa ja yksilönvapauksia.
Lopulta kysymys kuuluu: miten haluamme käyttää tekoälyä? Palveleeko se ihmiskunnan etua vai muuttuuko se vallankäytön välineeksi? Tasapainon löytäminen vaatii rohkeutta, yhteistyötä ja ennen kaikkea kykyä oppia menneisyydestä.