Content uploaded by Anna-Mari Wallenberg
Author content
All content in this area was uploaded by Anna-Mari Wallenberg on Aug 29, 2021
Content may be subject to copyright.
Tieto tulevaisuudesta
Algoritmit, tekoäly ja vastuullisuus
Tulevaisuudessa algoritmien avulla saatetaan laskea yliop-
pilastutkintojen arvosanoja tai määritellä sosiaalietuuksien
tai verotuksen suuruutta. Erityisesti viranomaiskäytössä
nousee kuitenkin esiin kysymys vastuista: Kuka vastaa
algoritmin avulla muotoillusta verotus- tai tukipäätöksestä?
Entä jos algoritmi tekee virheen – kuka on vastuussa?
Arkisessa kielenkäytössä algoritmeja saatetaan syyttää
virheistä. Nykyalgoritmit eivät ole kuitenkaan moraalisesti
vastuullisia. Algoritmit voivat olla virheiden syitä, ja ne
voivat aiheuttaa virheet. Pelkästä aiheuttamisesta ei vielä
seuraa moraalista vastuuta.
Filososesta näkökulmasta (moraalinen) vastuu edel-
lyttää (moraalista) toimijuutta. Moraalinen toimijuus puo-
lestaan vaatii kykyä valita vapaasti eri vaihtoehtojen välillä
sekä kykyä arvioida teon vaihtoehtoisia seurauksia, niiden
moraalista merkitystä ja teon taustalla olevia motiiveja.
Nykyisten tekoälysovellusten kohdalla nämä edelly-
tykset eivät toteudu. Ne eivät ole moraalisessa mielessä
vastuullisia, vaikka aiheuttaisivatkin virheet. Viime kädessä
vastuu on organisaatioilla, jotka käyttävät, hyödyntävät tai
kehittävät sovelluksia.
Vastuun yksilöiminen organisaatioiden eri osille on
kuitenkin osoittautunut käytännössä hankalaksi. Yksilöi-
miseen liittyy työnjaollisia haasteita; kysymys ei ole vain
algoritmin tai sovelluksen kehittäjän ”tuotevastuusta” tai
hankaluudesta erotella, miten vastuu jakaantuu tuotekehi-
tyksen tai algoritmien perustutkimuksen välille.
Aivan yhtä vaikeaa on yksilöidä vastuita päätöksente-
ko-organisaatioiden eri osille, jotka ovat laajalti hajautettuja
ja monimutkaisia toimijoiden verkostoja. Niiden työnjako
ei enää noudata perinteisiä hallinnollisia rakenteita. Mitä
monimutkaisempia vaikkapa viranomaiskäytössä olevat
tekoälysovellukset ovat ja mitä enemmän niille annetaan
päätöksentekotehtäviä, sitä hankalampi on hahmottaa,
miten sovellukset tosiasiallisesti toimivat osana suurta
Hyvä ja paha tieto
virkamieskoneistoa.
Vastuukysymyksen hankaluutta lisää sekin, että algo-
ritmit ja järjestelmät toisinaan ohjaavat toimintaa, joskus
myös pakottavat siihen. Esimerkiksi ajoneuvoissa oleva
järjestelmä varoittaa merkkiäänellä, jos turvavyö ei ole
ajon aikana kiinnitettynä. Ääni loppuu vain, jos turvavyö
kiinnitetään tai järjestelmä kytketään kokonaan pois päältä.
Vaikkei järjestelmä varsinaisesti määrää, mitä ihmisen tulee
tehdä, se silti pakottaa toimimaan.
Älykkäisiin teknologioihin lisätään jatkuvasti vastaavia
ominaisuuksia. Näin ihmisen toiminta alkaa yhä enemmän
mukautua algoritmien jo etukäteen rajaamiin vaihtoehtoi-
hin. Tästä syystä rajanveto suosittelu- ja manipulointialgo-
ritmien välillä on muuttumassa häilyväksi; kun algoritmi
esimerkiksi suosittelee musiikkia tai trekumppania,
”suosittelu” voi olla pikemminkin automaattista esivalintaa.
Vastuukysymysten näkökulmasta on ratkaisevan
tärkeää, että algoritmeja käytettäessä taataan niiden riittävä
läpinäkyvyys. Algoritmin käyttäjän on kyettävä todella
ymmärtämään, kuinka algoritmi vaikuttaa esimerkiksi
suositusten muodossa päätöksentekoon. Ilman läpinäky-
vyyttä ja riittävää ymmärrystä käyttäjä ei pysty valitsemaan
aidosti, milloin hän on valmis tukeutumaan algoritmiin
tiedonkäsittelyn tai ajattelun apuvälineenä – ja milloin ei.
A-M R