ChapterPDF Available

Wallenberg tekoälyn etiikka Työn tuuli 2 2023

Authors:

Abstract

Älykkäät teknologiat nostavat esiin mutkikkaita kysymyksiä niiden yhteiskunnallisista ja eettisistä vaikutuksista. Monimutkaiset, aiempaa itsenäisemmin oppivat tekoälyjärjestelmät ovat kognitiivisesti aktiivisia tavoilla, jotka erottavat ne muusta teknologiasta. Tekoälyjärjestelmät voivat muokata käytäntöjä, rakenteita ja toimintaympäristöä tavoilla, jotka nostavat esiin uudenlaisia kysymyksiä oikeusvaikutuksista, oikeudenmukaisuudesta ja hyvinvoinnin jakautumisesta. Perinteinen teknologian arviointi toimivuuden, käytettävyyden, tehokkuuden tai teknisen luotettavuuden näkökulmasta ei riitä. Sen sijaan lisääntyvän tekoälyn käyttö herättää tarpeen sen eettisestä arvioinnista. Viime vuosina tekoälyn etiikkaa, ja erityisesti tekoälyn eettisiä ohjeistuksia, on kuitenkin arvosteltu hyödyttömyydestä ja hampaattomuudesta. Kirjoituksessa ehdotetaan, että kyse on pikemminkin etiikkatyön keskeneräisyydestä.
Julkaistu: Työn Tuuli 2/2023
https://www.henry.fi/ajankohtaista/tyon-tuuli/2023/tyon-tuuli-22023.html
Anna-Mari Wallenberg
Tekoälyn etiikka: Hyödytön, hampaaton vai keskeneräinen?
Abstrakti:
Älykkäät teknologiat nostavat esiin mutkikkaita kysymyksiä niiden yhteiskunnallisista ja
eettisistä vaikutuksista. Monimutkaiset, aiempaa itsenäisemmin oppivat tekoälyjärjestelmät
ovat kognitiivisesti aktiivisia tavoilla, jotka erottavat ne muusta teknologiasta.
Tekoälyjärjestelmät voivat muokata käytäntöjä, rakenteita ja toimintaympäristöä tavoilla, jotka
nostavat esiin uudenlaisia kysymyksiä oikeusvaikutuksista, oikeudenmukaisuudesta ja
hyvinvoinnin jakautumisesta. Perinteinen teknologian arviointi toimivuuden, käytettävyyden,
tehokkuuden tai teknisen luotettavuuden näkökulmasta ei riitä. Sen sijaan lisääntyvän tekoälyn
käyttö herättää tarpeen sen eettisestä arvioinnista. Viime vuosina tekoälyn etiikkaa, ja
erityisesti tekoälyn eettisiä ohjeistuksia, on kuitenkin arvosteltu hyödyttömyydestä ja
hampaattomuudesta. Kirjoituksessa ehdotetaan, että kyse on pikemminkin etiikkatyön
keskeneräisyydestä.
AVAINSANAT: Tekoälyn etiikka, algoritmit, teknologian arviointi
Miksi tekoälyn etiikasta puhutaan?
Keinotekoisiin, ajatteleviin tai älykkäisiin koneisiin on liitetty paljon odotuksia ja pelkoja.
Filosofi Gottfried Leibniz haaveili 1700-luvulla “universaalista laskukoneesta”, joka olisi
yhteydessä yleiseen, kaiken tieteellisen tiedon sisältävään tieteen ensyklopediaan. Kone
kykenisi päättelemään vastaukset mihin tahansa kysymykseen (Roinila 2021). Pari sataa
vuotta myöhemmin chatGPT konkretisoi sekä Leibnizin haavetta, että sen ongelmia. Kone
kyllä päättelee vastauksia, mutta ei osaa arvioida, pitävätkö ne paikkansa.
ChatGPT, ja generatiivinen tekoäly ylipäänsä, osoittaa myös, miksi realistinen keskustelu
teknologiasta on tärkeää. Se havainnollistaa, kuinka nopeasti ja räjähdysmäisesti algoritmiset
teknologiat voivat arkipäiväistyä. Vielä vuosi sitten suurin osa ihmisistä ei ollut edes kuullut
koko teknologiasta. Nyt kielimallit ja kuvaeditorit ovat internetyhteyden päässä.
Älykkäät teknologiat nostavat esiin hankalia kysymyksiä niiden yhteiskunnallisista ja eettisistä
vaikutuksista. Monimutkaiset, koko ajan itsenäisemmin oppivat tekoälyjärjestelmät ovat
kognitiivisesti aktiivisia tavoilla, jotka erottavat ne muista teknologioista. Tekoälyjärjestelmät
voivat muokata käytäntöjä, rakenteita ja toimintaympäristöä. Ne nostavat esiin uudenlaisia
kysymyksiä oikeusvaikutuksista, oikeudenmukaisuudesta, ja hyvinvoinnin jakautumisesta.
Perinteinen teknologian arviointi toimivuuden, käytettävyyden, tehokkuuden tai teknisen
luotettavuuden näkökulmasta ei riitä. Viime vuosina onkin toistuvasti todettu, että lisääntyvästä
tekoälyn käytöstä seuraa tarve sen eettiselle arvioinnille. On puhuttu paljon tekoälyn etiikasta
ja siitä, mitä tekoälyn eettisesti hyväksyttävä kehittäminen, käyttäminen ja hyödyntäminen
edellyttävät.
Tekoälyn etiikan lyhyt historia: eettiset ohjeistukset
Kun kymmenisen vuotta sitten kone-oppimiseen (ML) ja syväoppiviin verkkoihin (DNN)
perustuvat kaupalliset sovellukset yleistyivät, nousivat esiin huolet niihin liittyvistä riskeistä ja
mahdollisista haitoista. Eettisiä ohjeita ja periaatteita alettiin laatia, koska uskottiin, että niiden
avulla haittoja voitaisiin ehkäistä ennalta. Toivottiin, että esitetyt periaatteet toimisivat
abstraktioina, joiden pohjalta algoritmien kehitystä ja käyttöä voitaisiin ohjata ja rajoittaa.
Nykyinen tekoälyn etiikka ei varsinaisesti perustu akateemiselle tutkimukselle, vaan on
syntynyt näiden ohjeistusten ja periaatteiden pohjalta. Ohjeistukset ovat rajanneet ja
synnyttäneet viitekehyksen, jonka sisällä viime vuosien keskustelu tekoälyn etiikasta on
pitkälti käyty. Ohjeistukset ovat valikoineet käsitteet, kuten “läpinäkyvyys” tai “vastuullisuus”,
joilla tekoälyn etiikasta keskustellaan sekä sanallistaneet periaatteet, joiden nojalla
tekoälysovellusten hyväksyttävyyttä edelleen arvioidaan.
Tällä hetkellä ohjeistuksia on jo yli 200. Niitä ovat julkaisseet niin kansalliset (esim. Kanadan
hallitus) kuin monikansalliset organisaatiot (Euroopan komissio, OECD, Unesco),
yleishyödylliset toimijat ja järjestöt (mm. IEEE), erilaiset virastot ja yksiköt (Suomessa esim.
Vero ja Kela, Helsingin kaupunki), akateemiset (Future of Life Institute) ja uskonnolliset
yhteisöt (mm. katolinen kirkko) sekä yritykset (mm. Microsoft, Google, Facebook).
Suositusten laatimisprosesseja ei ole juurikaan tutkittu. Tiedetään, että tyypillisesti suositukset
on laadittu ns. ad hoc -työryhmissä (esim. EU:n High Level Expert Group). Ryhmistä, niiden
kokoonpanosta tai työskentelystä ei kuitenkaan ole kokonaiskuvaa. Ryhmien tehtävänannoista,
käsiteltyjen aiheiden valikoinnista tai työtavoista ei myöskään ole tutkimustietoa. Ei myöskään
tiedetä, kuinka ryhmissä on hahmotettu tekoälyohjeistusten tehtävä, onko ja kuinka
mahdollinen laadunvarmistus on tehty, tai missä määrin ryhmissä keskusteltu siitä, vastaavatko
ohjeistukset tosiasiallisia tekoälyn käyttöön liittyviä haasteita.
Ohjeistuksien laatu vaihtelee lisäksi varsin paljon. Osa sisältää heikosti toisiinsa kytkettyjä
yksittäisiä sääntöjä. Niissä käytettyjä käsitteitä ei määritellä, taustoja ei avata, eikä
periaatteiden välillä ole ilmeistä yhteyttä. Osa taas on varsin korkealaatuisia ja hyvin
muodostettuja, toisiinsa kytkettyjä ja jäsenneltyjä periaatekokoelmia. Ohjeita on esimerkiksi
perusteltu laajoilla, osittain asiantuntijatyönä koostetuilla yksityiskohtaisilla ja monitieteisillä
selvityksillä, joiden laatimisprosessi on myös jossain määrin julkisesti raportoitu (esim.
Unesco).
Eettisten ohjeistusten sisältö: Big Five
Ohjeistuksien sanasto ja painotukset vaihtelevat jonkin verran. Pinnallisista eroista huolimatta
niissä kuitenkin käsitellään pitkälti samoja perusteemoja. Tavoiteltavina tekoälyn
hyödyntämisen piirteinä useimmissa ohjeistuksissa nähdään mm. myönteinen
demokratiakehitys, yhteiskunnallinen oikeudenmukaisuus ja yksilönsuoja (mm. Jobin, 2019;
Morley ym., 2019). Ohjeistuksissa korostetaan ihmiskeskeisyyttä, luotettavuutta ja
vastuullisuutta keskeisinä hyveinä. Niissä toistuu myös etiikan paikallisuus, eikä esimerkiksi
tekoälykehityksen ilmastovaikutusten, globaalien tuotantoketjujen tai hyvinvoinnin
jakautumisen kysymyksiä mainitse kuin kourallinen suosituksista (Wallenberg, valmisteilla).
Ohjeistuksissa heijastuu myös monia perinteisen eurooppalainen yhteiskunta- ja
moraalifilosofisen ajattelun piirteitä. Painotus ilmenee niin käytetyissä käsitteissä, keskeisissä
päättelyissä kuin teemojen valikoinnissakin. Ohjeistuksissa esimerkiksi tulkitaan
perusoikeudet länsimaisittain, ja korostetaan länsimaisille demokratioille keskeistä ajatusta
valtion vallankäytön rajoittamisesta kansalaisen oikeuksien suhteen. Kansalais- ja
yksilöoikeuksien painotus näkyy myös siten, että yhdenvertaisuus- ja omistusoikeuksia (esim.
dataa koskeva omistusoikeus), psyykkistä ja fyysistä koskemattomuutta (algoritminen
manipulaatio) sekä tieto- ja yksilönsuojaa tulkitaan pääsääntöisesti yksilöiden oikeuksien
näkökulmasta.
Ohjeistuksille on leimallista myös niiden riskipohjaisuus. Tavoitteena on lähes aina
ennaltaehkäistä harmeja ja haittoja. Tekoälyn mahdollisia myönteisiä vaikutuksia ei mainita
kuin muutamassa ohjeistuksessa (Wallenberg valmisteilla; Rusanen 2019). Tämä heijastuu
myös ohjeistuksissa käytettyjen käsitteiden tulkintaan. Esimerkiksi perusoikeudet, kuten
yhdenvertaisuus tai yksilönsuoja, tulkitaan ohjeistuksissa pääsääntöisesti ns. negatiivisesti.
Painopiste on oikeuksiin kohdistuvien loukkauksien, kuten yhdenvertaisuutta rikkovan
syrjinnän ennaltaehkäisyssä, ei oikeuksien toteutumista tosiasiallisesti tukevien velvoitteiden
asettamisessa (ns. positiivinen tulkinta).
Taulukko 1. Tekoälyn etiikan keskeiset periaatteet (Jobin ym., 2019).
1. vahinkojen välttäminen, eli “älä aiheuta harmia-periaate” (Riskien ennaltaehkäisy).
2. vastuullisuus, eli “kuka kantaa vastuun tekoälyn toiminnasta” (Vastuun kantilainen
tulkinta.)
3. läpinäkyvyys ja selitettävyys, eli “miten tiedetään, kuinka tekoäly toimii” (Seuraa sekä
vastuullisuudesta että yksilön oikeudesta saada selitys häntä koskevan päätöksen
perusteluista.)
4. oikeudenmukaisuus ja yhdenvertaisuus eli “tekoälyn tulee toimia reilusti ja eikä se saa
syrjiä”
5. ihmisoikeuksien, kuten yksityisyyden ja turvallisuuden, kunnioittaminen.
Taulukko 1 loppuu
Suositusten peruskäsitteet rakentuvat pitkälti eurooppalaisen moraalifilosofian periaatteiden
päälle. Esimerkiksi vastuullisuus (engl. accountability) tulkitaan ohjeistuksissa ns. perinteisen
kantilaisen luennan pohjalta. Vastuu on aktiivisen toimijan vastuuta teoista ja valinnoista.
Vastuu edellyttää toimijalta sekä valinnanvapautta että tiedollista kykyä ennakoida valintojen
seurauksia. Toimija on vastuussa vain teoista (tai tekemättä jättämisistä), jotka hän valitsee
vapaasti ja joiden kohdalla hän on kyennyt arvioimaan, mitä valitusta teosta voi seurata.
Ohjeistuksissa tiedollinen ennakointivelvoite tulkitaan usein järjestelmien läpinäkyvyytenä ja
selitettävyytenä. Päättely etenee seuraavasti: Jos järjestelmän on oltava ennakoitava, sen
toiminta on osattava selittää. Jotta järjestelmän toimintaa voidaan selittää, on sen oltava
läpinäkyvää (esim. Morley ym., 2019). Toiminta on puolestaan läpinäkyvää, jos se voidaan
kuvata riittävällä tarkkuudella askel askeleelta. Tästä tulkinnasta on kuitenkin keskusteltu
varsin paljon viime vuosina. On esimerkiksi todettu, että aito läpinäkyvyys voi myös vaatia
kuvauksen ymmärrettävyyttä. Sen mukaan myös henkilöiden, joilla ei ole tietoteknistä
koulutusta, on kyettävä hahmottamaan, miten heitä koskevat päätökset on koneellisesti tehty.
Lisäksi on huomautettu, että selitettävyys ei välttämättä tarkoita samaa kuin yksilön
oikeusturvan kannalta keskeinen läpinäkyvyys. Päätöksenteon kohteena olevan yksilön
kannalta keskeisempää on usein päätöksen oikeutus kuin sen selitettävyys (Robbins, 2019). Jos
vaikkapa sosiaalietuus tai oleskelupa evätään koneellisesti (tai ihmisen toimesta), yksilölle ei
ole keskeistä se, millaisilla algoritmeilla (tai hermosoluilla) päätös on tehty. Keskeisempää on,
perustellaanko päätös oikeilla pykälillä tai laintulkinnalla (Wachter ym., 2018; Robbins, 2019).
Myös vinouman käsitteen tulkinta on herättänyt arvostelua. Julkisissa keskusteluissa usein
oletetaan, että monille kone-oppiville järjestelmille, kuten luokittelualgoritmeille
määritelmällinen, niiden matemaattisista ominaisuuksista johtuva vinoumaherkkyys on
automaattisesti moraalisessa mielessä syrjivää, tai johtaa syrjintään. Oletus toistuu monissa
ohjeistuksissa. Vinoumia on kuitenkin useita eri lajeja, ja ne voivat johtua monista eri syistä
(Belenguer, 2022). Kaikki vinoumat eivät syrji, sillä aidosti syrjivien vinoumien on oltava
moraalisesti merkityksellisiä esimerkiksi perusoikeusvaikutuksien vuoksi (Rusanen, 2020). Ne
tyypillisesti ilmenevät käyttöyhteyksissä esimerkiksi mahdollisena epätasa-arvoisena
kohteluna tai oikeuksien eväämisenä (Belenguer, 2022).
Vinoumaherkkyys ja läpinäkyvyys ovat esimerkkejä siitä, kuinka ohjeistuksissa ei ole aina
ajateltu asioita aivan loppuun asti. Pinnallisuus näkyy myös epämääräisyytenä, eli ”tekoäly ei
saa syrjiä”- tyylisinä ohjeina, jotka eivät kiinnity mihinkään. Pahimmillaan ohjeistukset voivat
olla sisäisesti ristiriitaisia. Saatetaan esimerkiksi kieltää yksilöiden erotteleminen
luokittelualgoritmeilla syrjinnän estämiseksi yhdessä periaatteessa. Seuraavassa voidaan
kuitenkin teknologian inklusiivisuuden (eli erityispiirteiden huomioimiseen perustuvan
teknologian) lisäämiseksi vaatia kuitenkin sitä, että luokittelualgoritmien tulee tunnistaa ja
huomioida yksilöiden erot.
Ohjeistuksiin liittyy myös muita ongelmia. Eräs on niiden ruokkima virhetulkinta, että kyse
olisi aivan uudesta, muusta moraalikoodistosta irrallisesta, vain tekoälyä koskevasta
säännöstöstä. On jäänyt huomaamatta, että useimmat ohjeistusten teemoista, kuten
yhdenvertaisuus, oikeudenmukaisuus tai vastuullisuus, eivät varsinaisesti ole tekoälyspesifejä,
vaan pätevät mihin tahansa eettiseen arviointiin (Floridi ym., 2018). Seurauksena on mielikuva,
että vain tekoälyn etiikka asettaisi eettisiä velvoitteita tekoälyn hyväksyttävälle käytölle.
Mielikuva johtaa epärealistisiin odotuksiin tekoälyn etiikan tehtävistä ja synnyttää
turhautumista, kun odotuksia ei kuitenkaan ohjeistuksien tasolla täytetä.
Turhautuminen tekoälyn etiikkaan?
Ohjeistuksia onkin viime vuosina arvosteltu ankarasti, että niiden tosiasiallinen vaikutus on
suhteellisen heikkoa. Ohjeistuksia on kuvattu mm. abstrakteiksi periaatelistoiksi, jotka eivät
kiinnity käytäntöihin tai ohjaa niitä (McNamara ym., 2018; Hagendorff, 2020). Ohjeistuksia
on kutsuttu “hyödyttömiksi” ja tekoälyn etiikkaa “hampaattomaksi” (Resseguier ym., 2020;
Munn, 2022). Ongelma usein on, että ohjeet eivät itsessään yksilöi konkreettisia mekanismeja,
työkaluja tai välineitä niiden toteuttamiseksi (Morley ym., 2019).
Abstraktien periaatteiden kytkeminen käytäntöön on haasteellista, olipa kyse mistä alasta
tahansa. Normatiivisia sääntöjä on vaikeaa muuntaa teknistä kehitystyötä tai käyttöä ohjaaviksi
periaatteiksi siten, että ne säilyttäisivät normatiivisen luonteensa. Tekoälyn eettisten
ohjeistusten epämääräisyys tekee muuntamisesta vielä vaikeampaa. Yritykset jalkauttaa
eettiset ohjeistukset “käännöstyökalujen” avulla ovatkin usein epäonnistuneet (Morley ym.,
2021).
Ei kuitenkaan voida sanoa, että eettiset ohjeistukset olisivat olleet täysin turhia. Ohjeistukset
ovat antaneet alustavan sanallisen ilmiasun toiveille, joita tekoälyn kehitykseen ja käyttämiseen
liitetään (Morley ym., 2019). Niiden pohjalta on myös viime vuosina kehitetty lukemattomia
erilaisia toimintamalleja, standardointialoitteita, etiikkatyökaluja ja arvioinnin menetelmiä
kansalaispaneeleista riskien arviointilomakkeisiin ja koulutusohjelmiin (Kinder ym., 2023).
Eettiset teemat ovat myös jatkuvasti otsikoissa, ja niihin liittyvä yleinen osaamistaso on noussut
valtavasti (Morley ym., 2021). Myös moni merkittävä sääntelyaloite, kuten EU:n
tekoälysäädös (AI Act) on hakenut inspiraatiota eettisistä ohjeistuksista.
Lisäksi tekoälytutkimuksen ja -tuotekehityksen parissa on jo nyt paljon alueita, joilla on
ainakin välillisesti edistytty eettistä päämääriä tukevien teknisten ratkaisujen kehittämisessä.
Esimerkiksi algoritmista reiluutta lisääviä ratkaisuja on kehitetty useita, ja ala on
vakiinnuttanut asemansa tutkimuskentällä (Ratra ym., 2021; Wang ym., 2022). Algoritminen
yksityisyyden- ja tietosuoja on myös ottanut valtavia harppauksia nimenomaan teknisten
ratkaisujen vuoksi (Xu ym., 2021). Viime vuosina on myös kehitetty aktiivisesti erilaisia
teknisiä keinoja koneilla generoidun väärän tiedon tunnistamiseksi (Naitali ym., 2023).
Hiljattain on edistytty myös kielimallien hallusinointimenetelmien kitkemisessä (Li ym.,
2022).
Teknosolutionismia?
Paradoksaalista sinänsä, mutta moni yhteiskuntatieteissä suositun ns. kriittisen
teknologiatutkimuksen edustaja näkee kuitenkin teknisten ratkaisujen kehittämisen
paheksuttavana “teknosolutionismina”. Teknosolutionismia syytetään siitä, että eettiset
ongelmat tulkitaan “vain” teknisinä ongelmina, joita yritetään ratkaistaan teknisten
pikaratkaisujen avulla. Monimutkaiset, rakenteelliset yhteiskunnalliset ongelmat “häivytetään”
teknologisen keskeneräisyyden taakse, ja niitä ratkaistaan puuttuvina lisäosina, suunnittelu- tai
ohjelmointivirheinä.
Kritiikin mukaan tämä ohjaa keskittymään “liian kapeasti” läpinäkyvyyden, hallusinoinnin ja
vinoumien kaltaisiin “prosessuaalisiin kysymyksiin” ja sivuuttamaan teknologian
“sosiotekninen konteksti” (Zalnieriute 2021). Sosioteknisellä kontekstilla tarkoitetaan tässä
yhteydessä “yhteiskunnallisia valta-, rooliodotus-, identiteetti- ja sortorakenteita”, joissa
teknologiaa tuotetaan, käytetään ja hyödynnetään (Zalnieriute, 2021).
Näkökulma on kuitenkin turhan yksipuolinen. On vaarallisen lähellä, että väitteissä
sosioteknisen kontekstin sivuuttamisesta tosiasiassa sivuutetaan se itse. Teknologian
käyttöympäristöt ovat aina kerroksellisia ja moniulotteisia. Teknologiaa ei käytetä, kehitetä tai
hyödynnetä vain valtarakenteissa, identiteetti- tai rooliodotuksissa. Myös muut, aivan yhtä
merkitykselliset tekijät, kuten juridinen normisto, informaatioympäristö, ihmisen ja koneen
välinen tiedollinen vuorovaikutus tai siihen perustuva työnjako, määrittävät ja rakentavat
sosioteknis(-kognitiivista) kontekstia (Wallenberg, valmisteilla). Eettisten ohjeistusten tehtävä
voikin olla sosioteknisen normatiivisen kontekstin ylläpito, ei sen sivuuttaminen.
Eettisten ohjeistusten rooli julkisessa hallinnossa
Monilla tekoälyn käyttöalueilla, kuten julkisessa hallinnossa, on jo omat eettiset ja juridiset
norminsa. Ne ovat keskeisiä julkiselle hallinnolle sosioteknisenä kontekstina. Tekoäly tai sen
etiikka eivät itsessään kumoa, määrittele tai muuta julkisen hallinnon normiperustaa, sen
tavoitteita tai ideaaleja.
Jos julkisessa hallinnossa tai viranomaistyössä käytetään tekoälyteknologiaa, sitä koskee aivan
samat säännöt ja periaatteet kuin kaikkea muutakin viranomais- tai hallintotoimintaa.
Teknologia ei itsessään muuta sitä, että viranomaisen vastuulla on esimerkiksi toimia
puolueettomasti, riippumattomasti ja tasapuolisesti. Ne eivät myöskään vaikuta siihen, että
viranomaisen toiminnan on oltava avointa, tarkoituksenmukaista ja hyväksyttävää. Eivätkä ne
kyseenalaista sitä, että viranomaisen on turvattava asianosaisten oikeusturva sekä virkavastuun
toteutuminen myös silloin, kun algoritmeja käytetään.
Eettisten ohjeistusten tehtävä on tulkita, kuinka hyvän hallinnon periaatteet voidaan toteuttaa
käytettäessä tekoälyä. Kyse ei siis ole sosioteknisen kontekstin häivyttämisestä, vaan sen
täydentämisestä. Tekoäly voi esimerkiksi muokata hallintotoiminnan rakenteita ja käytäntöjä
tavoilla, joita aiempi normisto ei tunnista. Tekoälyn käytöllä voi myös olla sellaisia välillisiä
tai välittömiä vaikutuksia viranomaistoimintaan, joita aiemmilla tietoteknisillä laitteilla ei ole
ollut. Eettisten ohjeistuksien tehtävä onkin taata, että tekoälyjärjestelmiä kehitetään ja
käytetään olemassa olevan normipohjan kanssa yhteensopivalla tavalla.
Jos tekoälyn etiikan rooli nähdään ylläpitävänä ja täydentävänä, on luontevaa, että
ohjeistuksien avulla ohjataan etsimään vastauksia “prosessuaalisiin kysymyksiin”.
Ohjeistuksien tehtävä ei ole kyseenalaistaa koko normipohjaa, vaan ohjata teknistä kehittämistä
ja teknologian käyttöä niin, että niiden varassa tapahtuva viranomaistoiminta noudattaa hyvän
hallinnon periaatteita. Ohjeistusten tehtävä on rakentaa viitekehys, jolla hallinnon periaatteet
voidaan operationalisoida muotoon, joita voidaan soveltaa tekoälyn käytössä ja kehittämisessä.
Ovatko ohjeistukset onnistuneet tässä? Onko ohjeistuksia pystytty operationalisoimaan niin,
että ne ovat - edes välillisesti - auttaneet esimerkiksi parantamaan julkisten palveluiden laatua?
Kysymykset eivät ole aivan yksinkertaisia, eikä niihin ole tyhjentäviä vastauksia. Kyse ei ole
siitä, etteikö julkista hallintoa ja sen tekoälyn käyttöä olisi tutkittu ja selvitetty. On kymmeniä,
ellei satoja raportteja ja tutkimuksia tekoälyn hyödyntämiseen liittyvistä odotuksista, eettisen
tekoälyn hyödyntämisen malleista, niiden pilottikokeiluista ja vaikutuksista (Zuiderwijk ym.,
2021). Tutkimukset ja selvitykset tarkastelevat kuitenkin tekoälyn käytön seurauksia ja
tekoälyn käyttöön liittyviä riskejä usein esimerkiksi osallisuuden ja luottamuksen, niiden
rakentumisen ja niihin kohdistuvien odotusten näkökulmista (Henman, 2020; Desouza ym.,
2019). Eettisten ohjeistuksien operationalisointikysymyksiä ei kuitenkaan ole tutkittu, eikä
kokonaiskuvaa ole (Gianni ym., 2022).
Aihepiiriä mutkistaa myös, että julkinen hallinto ei ole monoliitti, vaan monikerroksinen
rakenne. Useissa maissa julkisen hallinnon eri kerroksilla on omat lakisääteiset toimialueensa,
ja ohjeistukset ovat alisteisia myös näille rakenteille. Tonttijaon vuoksi ohjeistuksien on oltava
sensitiivisiä kunkin toimijan toimialueelle ja sallittava, että kukin toimialue operationalisoi
lopulta käytäntöjen tasolla ohjeistukset suhteessa niitä koskevaan sääntelyyn, ytännön
vaatimuksiin ja tehtäviin. Toki julkisen hallinnon ylimmillä kerroksilla, kuten ministeriöillä,
on käytössä vahvat välineet: Se voi omalla tasollaan operationalisoida eettiset ohjeistukset
muotoon, jossa se käyttää rahoitusta, informaatio-ohjausta ja sääntelyä ohjaamisen
mekanismeina. Teknologian tosiasialliseen käyttöön liittyvät kysymykset kuitenkin
konkretisoituvat usein vasta virastojen tai kuntien tasolla.
Lopuksi
On totta, että julkinen hallinto on jossain määrin oma erityiskysymyksensä. Sen normistoa
koskevia väitteitä ei voida automaattisesti yleistää koskemaan alueita, joilla ei ole yhtä
samanlaista, usein lainsäädännöllä vahvistettua perustaa. Vastaavasti myöskään muita alueita
koskevia huomioita ei voida suoraviivaisesti yleistää koskemaan julkista hallintoa. On toki
myös totta, että julkinen hallintokaan ei ole vielä onnistunut operationalisoimaan eettisiä
ohjeita aina niin, että ne olisivat hyödyllisiä tekoälyn kehittämisen tai käyttämisen
näkökulmasta. Ohjeistukset ovat usein liian ympäripyöreitä ja ylimalkaiseksi. Niiden
abstraktiotaso voi myös olla väärä, ja niistä puuttuu riittävä kohdennus tekijöihin, tekemisiin
ja tekemisen kohteisiin. Ohjeistukset voivat tulkita väärin teknologiaan liittyvät haasteet ja
ohittavat monia muita oleellisia tekijöitä. Nämä puutteet saattavat kuitenkin olla ennen kaikkea
signaaleja etiikkatyön keskeneräisyydestä, eivät niinkään sen turhuudesta.
Lähteet
Anderson, M., & Anderson, S. L. (2011). Machine ethics. Cambridge: Cambridge University
Press.
Belenguer, L. (2022). AI bias: exploring discriminatory algorithmic decision-making models
and the application of possible machine-centric solutions adapted from the pharmaceutical
industry. AI Ethics 2, 771787.
Desouza, K.C., Dawson, G.S., & Chenok, D. (2020). Designing, developing, and deploying
artificial intelligence systems: Lessons from and for the public sector. Business Horizons,
63(2), 205-213.
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., & Dignum, V.(2018).
AI4PeopleAn ethical framework for a good AI society: Opportunities, risks, principles, and
recommendations. Minds and Machines, 28(4), 689707.
Gianni, R, Lehtinen, S. & Nieminen, M. (2022) Governance of Responsible AI: From Ethical
Guidelines to Cooperative Policies. Frontiers of Computer Sciences, 48(7), 34-37.
Hagendorff, T. (2020). The Ethics of AI Ethics: An Evaluation of Guidelines. Minds &
Machines 30, 99120.
Henman, P. (2020) Improving public services using artificial intelligence:
possibilities, pitfalls, governance, Asia Pacific Journal of Public Administration, 42(4), 209-
221.
Li, H., Su, Y., Cai, D., Wang, Y., & Liu, L. (2022). A survey on retrieval-augmented text
generation. arXiv preprint. arXiv:2202.01110.
McNamara, A., Smith, J., & Murphy-Hill, E. (2018). Does ACM’s code of ethics change
ethical decision making in software development?” Teoksessa Leavens, G., Garcia, & A.
Păsăreanu, C, (toim.), Proceedings of the 2018 26th ACM joint meeting on european software
engineering conference and symposium on the foundations of software engineering
ESEC/FSE 2018 (ss. 17). New York: ACM Press.
Morley, J., Floridi, L., & Kinsey, L. (2019). From What to How: An Initial Review of Publicly
Available AI Ethics Tools, Methods and Research to Translate Principles into Practices.
Science and Engineering Ethics 26, 21412168.
Morley, J., Elhalal, A., & Garcia, F. (2021). Ethics as a Service: A Pragmatic
Operationalisation of AI Ethics. Minds & Machines 31, 239256.
Munn, L. (2023). The uselessness of AI ethics. AI Ethics 3, 869877.
Naitali, A., Ridouani, M., Salahdine, F. & Kaabouch, N. (2023). "Deepfake Attacks:
Generation, Detection, Datasets, Challenges, and Research Directions" Computers 12(10).
Ratra, R. & Gulia, P. (2020). Privacy Preserving Data Mining: Techniques and Algorithms.
International Journal of Engineering Trends and Technology 68, 56-62.
Rességuier, A. & Rodrigues, R. (2020): AI ethics should not remain toothless! A call to bring
back the teeth of ethics. Big Data Society. 7(2).
Robbins, S. A. (2019). Misdirected Principle with a Catch: Explicability for AI. Minds &
Machines 29, 495514.
Roinila, M. (2021). Tekoälyn varhaishistoriaa: laskevia koneita ja spirituaalisia automaatteja.
Teoksessa P. Raatikainen (toim.), Tekoäly, ihminen ja yhteiskunta: filosofisia
näkökulmia (ss. 21-37). Helsinki: Gaudeamus.
Rusanen, A-M. (2021). Algoritmien aakkoset. Teoksessa Älykäs huominen - miten tekoäly ja
digitalisaatio muuttavat maailmaa? (ss. 33-39). Helsinki: Gaudeamus.
Zalnieriute, M. (2021). Transparency-Washing’ in the digital age: a corporate agenda of
procedural fetishism. Critical Analysis of Law, 8(1), 2133.
Zuiderwijk, A., Chen, Y. & Salem, F. (2021). Implications of the use of artificial intelligence
in public governance: A systematic literature review and a research agenda,
Government Information Quarterly, 38(3), 101577
Xu, R., Baracaldo, N. & James, J. (2021). Privacy-preserving machine learning: Methods,
challenges and directions. arXiv preprint, arXiv:2108.04417.
Wachter, S., Mittelstadt, B., & Russell, C. (2017). Counterfactual explanations without opening
the black box: Automated decisions and the GDPR. Harvard Journal of Law & Technology,
31(2), 842-887.
Wallenberg, A-M. (valmisteilla). How Ethics of AI went wrong.
ResearchGate has not been able to resolve any citations for this publication.
Article
Full-text available
Recent years have seen a substantial increase in interest in deepfakes, a fast-developing field at the nexus of artificial intelligence and multimedia. These artificial media creations, made possible by deep learning algorithms, allow for the manipulation and creation of digital content that is extremely realistic and challenging to identify from authentic content. Deepfakes can be used for entertainment, education, and research; however, they pose a range of significant problems across various domains, such as misinformation, political manipulation, propaganda, reputational damage, and fraud. This survey paper provides a general understanding of deepfakes and their creation; it also presents an overview of state-of-the-art detection techniques, existing datasets curated for deepfake research, as well as associated challenges and future research trends. By synthesizing existing knowledge and research, this survey aims to facilitate further advancements in deepfake detection and mitigation strategies, ultimately fostering a safer and more trustworthy digital environment.
Article
Full-text available
As the awareness of AI’s power and danger has risen, the dominant response has been a turn to ethical principles. A flood of AI guidelines and codes of ethics have been released in both the public and private sector in the last several years. However, these are meaningless principles which are contested or incoherent, making them difficult to apply; they are isolated principles situated in an industry and education system which largely ignores ethics; and they are toothless principles which lack consequences and adhere to corporate agendas. For these reasons, I argue that AI ethical principles are useless, failing to mitigate the racial, social, and environmental damages of AI technologies in any meaningful sense. The result is a gap between high-minded principles and technological practice. Even when this gap is acknowledged and principles seek to be “operationalized,” the translation from complex social concepts to technical rulesets is non-trivial. In a zero-sum world, the dominant turn to AI principles is not just fruitless but a dangerous distraction, diverting immense financial and human resources away from potentially more effective activity. I conclude by highlighting alternative approaches to AI justice that go beyond ethical principles: thinking more broadly about systems of oppression and more narrowly about accuracy and auditing.
Article
Full-text available
The increasingly pervasive role of Artificial Intelligence (AI) in our societies is radically changing the way that social interaction takes place within all fields of knowledge. The obvious opportunities in terms of accuracy, speed and originality of research are accompanied by questions about the possible risks and the consequent responsibilities involved in such a disruptive technology. In recent years, this twofold aspect has led to an increase in analyses of the ethical and political implications of AI. As a result, there has been a proliferation of documents that seek to define the strategic objectives of AI together with the ethical precautions required for its acceptable development and deployment. Although the number of documents is certainly significant, doubts remain as to whether they can effectively play a role in safeguarding democratic decision-making processes. Indeed, a common feature of the national strategies and ethical guidelines published in recent years is that they only timidly address how to integrate civil society into the selection of AI objectives. Although scholars are increasingly advocating the necessity to include civil society, it remains unclear which modalities should be selected. If both national strategies and ethics guidelines appear to be neglecting the necessary role of a democratic scrutiny for identifying challenges, objectives, strategies and the appropriate regulatory measures that such a disruptive technology should undergo, the question is then, what measures can we advocate that are able to overcome such limitations? Considering the necessity to operate holistically with AI as a social object, what theoretical framework can we adopt in order to implement a model of governance? What conceptual methodology shall we develop that is able to offer fruitful insights to governance of AI? Drawing on the insights of classical pragmatist scholars, we propose a framework of democratic experimentation based on the method of social inquiry. In this article, we first summarize some of the main points of discussion around the potential societal, ethical and political issues of AI systems. We then identify the main answers and solutions by analyzing current national strategies and ethics guidelines. After showing the theoretical and practical limits of these approaches, we outline an alternative proposal that can help strengthening the active role of society in the discussion about the role and extent of AI systems.
Article
Full-text available
A new and unorthodox approach to deal with discriminatory bias in Artificial Intelligence is needed. As it is explored in detail, the current literature is a dichotomy with studies originating from the contrasting fields of study of either philosophy and sociology or data science and programming. It is suggested that there is a need instead for an integration of both academic approaches, and needs to be machine-centric rather than human-centric applied with a deep understanding of societal and individual prejudices. This article is a novel approach developed into a framework of action: a bias impact assessment to raise awareness of bias and why, a clear set of methodologies as shown in a table comparing with the four stages of pharmaceutical trials, and a summary flowchart. Finally, this study concludes the need for a transnational independent body with enough power to guarantee the implementation of those solutions.
Article
Full-text available
As the range of potential uses for Artificial Intelligence (AI), in particular machine learning (ML), has increased, so has awareness of the associated ethical issues. This increased awareness has led to the realisation that existing legislation and regulation provides insufficient protection to individuals, groups, society, and the environment from AI harms. In response to this realisation, there has been a proliferation of principle-based ethics codes, guidelines and frameworks. However, it has become increasingly clear that a significant gap exists between the theory of AI ethics principles and the practical design of AI systems. In previous work, we analysed whether it is possible to close this gap between the ‘what’ and the ‘how’ of AI ethics through the use of tools and methods designed to help AI developers, engineers, and designers translate principles into practice. We concluded that this method of closure is currently ineffective as almost all existing translational tools and methods are either too flexible (and thus vulnerable to ethics washing) or too strict (unresponsive to context). This raised the question: if, even with technical guidance, AI ethics is challenging to embed in the process of algorithmic design, is the entire pro-ethical design endeavour rendered futile? And, if no, then how can AI ethics be made useful for AI practitioners? This is the question we seek to address here by exploring why principles and technical translational tools are still needed even if they are limited, and how these limitations can be potentially overcome by providing theoretical grounding of a concept that has been termed ‘Ethics as a Service.’
Article
Full-text available
To lay the foundation for the special issue that this research article introduces, we present 1) a systematic review of existing literature on the implications of the use of Artificial Intelligence (AI) in public governance and 2) develop a research agenda. First, an assessment based on 26 articles on this topic reveals much exploratory, conceptual, qualitative, and practice-driven research in studies reflecting the increasing complexities of using AI in government – and the resulting implications, opportunities, and risks thereof for public governance. Second, based on both the literature review and the analysis of articles included in this special issue, we propose a research agenda comprising eight process-related recommendations and seven content-related recommendations. Process-wise, future research on the implications of the use of AI for public governance should move towards more public sector-focused, empirical, multidisciplinary, and explanatory research while focusing more on specific forms of AI rather than AI in general. Content-wise, our research agenda calls for the development of solid, multidisciplinary, theoretical foundations for the use of AI for public governance, as well as investigations of effective implementation, engagement, and communication plans for government strategies on AI use in the public sector. Finally, the research agenda calls for research into managing the risks of AI use in the public sector, governance modes possible for AI use in the public sector, performance and impact measurement of AI use in government, and impact evaluation of scaling-up AI usage in the public sector.
Article
Contemporary discourse on the regulation and governance of the digital environment has often focused on the procedural value of transparency. This article traces the prominence of the concept of transparency in contemporary regulatory debates to the corporate agenda of technology companies. Looking at the latest transparency initiatives of IBM, Google and Facebook, I introduce the concept of “transparency washing,” whereby a focus on transparency acts as an obfuscation and redirection from more substantive and fundamental questions about the concentration of power, substantial policies, and actions of technology behemoths. While the “ethics washing” of the tech giants has become widely acknowledged, “transparency washing” presents a wider critique of corporate discourse and neoliberal governmentality based on procedural fetishism, which detracts from the questions of substantial accountability and obligations by diverting the attention to procedural micro-issues that have little chance of changing the political or legal status quo.
Article
Artificial intelligence arising from the use of machine learning is rapidly being developed and deployed by governments to enhance operations, public services, and compliance and security activities. This article reviews how artificial intelligence is being used in public sector for automated decision making, for chatbots to provide information and advice, and for public safety and security. It then outlines four public administration challenges to deploying artificial intelligence in public administration: accuracy, bias and discrimination; legality, due process and administrative justice; responsibility, accountability, transparency and explainability; and power, compliance and control. The article outlines technological and governance innovations that are being developed to address these challenges.