Tekoälykeskustelussa on viime aikoina paljon puhuttu läpinäkyvyydestä ja reiluudesta. Mutta voiko algoritmi olla aidosti objektiivinen, vai olemmeko vain korvaamassa inhimillisen puolueellisuuden digitaalisella versiolla?
Stanfordin yliopiston Human-Centered Artificial Intelligence (HAI) -instituutin AI Index 2024 -raportti osoittaa, että tekoälyn eettiset näkökohdat ovat nousseet aiempaa keskeisemmäksi osaksi sekä yritysten että tutkimuslaitosten toimintaa. Mutta eettisen retoriikan ja todellisen vaikutuksen välillä ammottaa yhä kuilu.
Perustavanlaatuinen ongelma, jota esimerkiksi Axios AI+ on pitänyt esillä, on ettei edes puolueettomuuden käsitettä ole pystytty yksiselitteisesti määrittelemään. Mitä tarkoittaa, että tekoälyratkaisu on ”reilu” tai ”objektiivinen”? Jo tähän kysymykseen vastaaminen jakaa tutkijat, teknologit ja poliitikot eri leireihin.
Evgeny Morozov on myös toistuvasti muistuttanut, että algoritmeja optimoidaan usein ensisijaisesti numeerisiin tavoitteisiin, kuten klikkauksiin tai tuottoon. Yhteiskunnallinen oikeudenmukaisuus jää helposti toissijaiseksi. Algoritmi ei siis aina ole neutraali, vaan voi tuottaa vinoutunutta ja jopa vahingollista päätöksentekoa.
Poliittisesti turbulentissa tilanteessa myös poliittinen puolueettomuus on luonnollisesti puhuttanut. Elon Musk on toistuvasti syyttänyt varsinkin kilpailevia tekoälyjä ”liian liberaaleiksi”, väittäen että ohjelmistokehittäjien ja opetusaineistojen poliittiset suuntaukset vaikuttavat AI:n tuottamiin vastauksiin. Hänen oma yhtiönsä, xAI, onkin pyrkinyt kehittämään ”ideologisesti tasapainoisempaa” vaihtoehtoa. Eikä ole mahdotonta, että hänellä on asiassa myös henkilökohtainen kulma: Muskin omatkin tekoälyt ovat esittäneet hänestä henkilöönmenevää kritiikkiä, mikä on tietenkin saanut poliittiset vastustajat ilakoimaan.
Medioissa on esiintynyt myös spekulaatioita tekoälystä, jonka poliittista suuntausta voitaisiin säätää halutuksi. Yhden ajatuksen mukaan tekoäly voisi asenteiltaan heijastella esimerkiksi viimeisimpien vaalien tuloksia. Ei ole mitenkään selvää toteuttaisiko tällainen demokratiaa vai vinouttaisiko se sitä entisestään.
Tämänkaltaisten mallien toimivuudesta tai edes olemassaolosta ei toistaiseksi ole luotettavaa näyttöä. Ideana ne kuitenkin haastavat koko puolueettomuuden perusajatuksen: mitä seuraa, jos algoritmin voi tietoisesti ohjelmoida poliittisesti? Vähintään se lataa uutta painoarvoa keskusteluun läpinäkyvyydestä.
Lopulta kysymys ei ole vain siitä, voiko tekoäly olla puolueeton, vaan myös siitä, mikä on tekoälyn rooli tiedon välittäjänä. Olemme keskellä murrosta, jossa algoritmit muovaavat todellisuuskokemustamme aivan uudella tavalla. Jos ennen medioita syytettiin portinvartijuudesta, nyt tekoäly toimii portinvartijan portinvartijana – valiten, mitä näytetään, mitä painotetaan ja miten kysymyksiin vastataan.
Me Fleuve.ai:ssa tutkimme jatkuvasti näitä ilmiöitä ja yritämme analysoida seurauksia. Elämme ja hengitämme myös AI-todellisuutta (tai harhaa, näkemyksestäsi riippuen). Tämäkin juttuaihe syntyi tekoälyn ehdotuksesta, jonka ihminen hyväksyi jatkoon, tekoäly kirjoitti artikkeliksi ja ihminen täydensi ja viimeisteli. Missä kohtaa siis kulkee toden ja simulaation raja? Ja kenen näkemyksiä juttu toistelee? Onko kyseessä loistava apuväline vakavien aiheiden tutkimiseen, vai scifi-kirjoista tuttu viimeinen seisake ennen kuin Skynet ottaa vallan?
Jos haluat syventää ymmärrystäsi siitä, miten tällaiset kehityskulut heijastuvat omaan arkeesi, järjestetään tapaaminen. Tarjoamme koulutuksia ja neuvontaa, joiden avulla tekoäly ei jää pelkäksi mystiseksi mustaksi laatikoksi. Ja ellet ole vielä valmis siihen, seuraa nyt meitä vaikka LinkedInissä: Fleuve.ai

