ChapterPDF Available

Algoritmit, tekoäly ja vastuullisuus

Authors:
Tieto tulevaisuudesta
Algoritmit, tekoäly ja vastuullisuus
Tulevaisuudessa algoritmien avulla saatetaan laskea yliop-
pilastutkintojen arvosanoja tai määritellä sosiaalietuuksien
tai verotuksen suuruutta. Erityisesti viranomaiskäytössä
nousee kuitenkin esiin kysymys vastuista: Kuka vastaa
algoritmin avulla muotoillusta verotus- tai tukipäätöksestä?
Entä jos algoritmi tekee virheen – kuka on vastuussa?
Arkisessa kielenkäytössä algoritmeja saatetaan syyttää
virheistä. Nykyalgoritmit eivät ole kuitenkaan moraalisesti
vastuullisia. Algoritmit voivat olla virheiden syitä, ja ne
voivat aiheuttaa virheet. Pelkästä aiheuttamisesta ei vielä
seuraa moraalista vastuuta.
Filososesta näkökulmasta (moraalinen) vastuu edel-
lyttää (moraalista) toimijuutta. Moraalinen toimijuus puo-
lestaan vaatii kykyä valita vapaasti eri vaihtoehtojen välil
sekä kykyä arvioida teon vaihtoehtoisia seurauksia, niiden
moraalista merkitystä ja teon taustalla olevia motiiveja.
Nykyisten tekoälysovellusten kohdalla nämä edelly-
tykset eivät toteudu. Ne eivät ole moraalisessa mielessä
vastuullisia, vaikka aiheuttaisivatkin virheet. Viime kädessä
vastuu on organisaatioilla, jotka käyttävät, hyödyntävät tai
kehittävät sovelluksia.
Vastuun yksilöiminen organisaatioiden eri osille on
kuitenkin osoittautunut käytännössä hankalaksi. Yksilöi-
miseen liittyy työnjaollisia haasteita; kysymys ei ole vain
algoritmin tai sovelluksen kehittäjän ”tuotevastuusta” tai
hankaluudesta erotella, miten vastuu jakaantuu tuotekehi-
tyksen tai algoritmien perustutkimuksen välille.
Aivan yhtä vaikeaa on yksilöidä vastuita päätöksente-
ko-organisaatioiden eri osille, jotka ovat laajalti hajautettuja
ja monimutkaisia toimijoiden verkostoja. Niiden työnjako
ei enää noudata perinteisiä hallinnollisia rakenteita. Mi
monimutkaisempia vaikkapa viranomaiskäytössä olevat
tekoälysovellukset ovat ja mitä enemmän niille annetaan
päätöksentekotehtäviä, sitä hankalampi on hahmottaa,
miten sovellukset tosiasiallisesti toimivat osana suurta
 Hyvä ja paha tieto
virkamieskoneistoa.
Vastuukysymyksen hankaluutta lisää sekin, että algo-
ritmit ja järjestelmät toisinaan ohjaavat toimintaa, joskus
myös pakottavat siihen. Esimerkiksi ajoneuvoissa oleva
järjestelmä varoittaa merkkiäänellä, jos turvavyö ei ole
ajon aikana kiinnitettynä. Ääni loppuu vain, jos turvavyö
kiinnitetään tai järjestelmä kytketään kokonaan pois päältä.
Vaikkei järjestelmä varsinaisesti määrää, mitä ihmisen tulee
tehdä, se silti pakottaa toimimaan.
Älykkäisiin teknologioihin lisätään jatkuvasti vastaavia
ominaisuuksia. Näin ihmisen toiminta alkaa yhä enemmän
mukautua algoritmien jo etukäteen rajaamiin vaihtoehtoi-
hin. Tästä syystä rajanveto suosittelu- ja manipulointialgo-
ritmien välillä on muuttumassa häilyväksi; kun algoritmi
esimerkiksi suosittelee musiikkia tai trekumppania,
suosittelu” voi olla pikemminkin automaattista esivalintaa.
Vastuukysymysten näkökulmasta on ratkaisevan
tärkeää, että algoritmeja käytettäessä taataan niiden riittävä
läpinäkyvyys. Algoritmin käyttäjän on kyettävä todella
ymmärtämään, kuinka algoritmi vaikuttaa esimerkiksi
suositusten muodossa päätöksentekoon. Ilman läpinäky-
vyyttä ja riittävää ymmärrystä käyttäjä ei pysty valitsemaan
aidosti, milloin hän on valmis tukeutumaan algoritmiin
tiedonkäsittelyn tai ajattelun apuvälineenä – ja milloin ei.
A-M R
ResearchGate has not been able to resolve any citations for this publication.
ResearchGate has not been able to resolve any references for this publication.