Tekoäly kehityksen veturi, tekoäly työpaikkojen syöjä, tekoäly….

Päivitetty 19.8.2024

Tämän blogin kirjoittamisen syynä oli EU komission ajatus pystyä hallitsemaan tekoälyä. Samalla kirjoitan tekoälyn käyttöön liittyvistä haasteista.

EU komission kanta tekoälyyn

EU:n komissio teki huhtikuussa 2021 esityksen miten tekoälyä voisi säännöksillä hallita. Esityksessä tekoälyn käyttö on jaettu erilaisiin riskeihin, kiellettyyn ja sallittuun tekoälyn käyttöön. Riskit ovat matalan riskin ja korkean riskin asiat. EU:n parlamentti hyväksyi komission esityksen omilla kommenteillaan 14.6.2023 äänin 499 puolesta, 28 vastaan ja 93 tyhjää, eli kohtuullisen yksimielisesti. Lopulliset lain tulkinnat tulevat muovautumaan lähivuosina (Euroopan parlamentti 2023). Vaikeita kysymyksiä tulee olemaan asetettavat rajat, mikä on ohjeistusta ja mikä lakia? Uskottavuus on avainasemassa tekoälyn käytössä. Kuinka turvallisesti voimme käyttää tekoälyä ja tiedämmekö käyttävämme tekoälyä? On löydettävä keinot, miten voimme pelata saman aikaan avoimin kortein ja suojata tietojamme (Karlstad 2023).

Tekoäly tarkoittaa ihmisen matkimista

Huang ja Rust esittävät artikkelissaan tekoälyn ominaisuudesta matkia ihmisälyä ja näin kehittyä portaittain lähemmäksi ihmisten ajattelutapaa neljän älykkyysportaan kautta. Portaiden alussa on mekaaninen älykkyys, jossa tehdään rutiininomaisia ja hyvin samanlaisia tehtäviä. Toisella portaalla analyyttisessä älykkyydessä pitää jo pystyä tekemään päätöksiä saatujen tietojen perusteella. Kahden ensimmäisen portaan älykkyys on melko hyvin tekoälyllä hallittavissa. Kolmas porras on intuitiivinen älykkyys, mikä vaatii jo oppimista, monimutkaisten ja nopeasti muuttuvien asioiden tulkintaa. Tässä tekoälyssäkin on vielä kehitettävää, mutta se lähenee sitä. Neljännellä portaalla olevaa empaattista älykkyyttä on perinteisesti pidetty ihmisen älykkyytenä. Siinä pitää ymmärtää sosiaalisia rakenteita ja syitä, miten moraali syntyy ja sen perusteita ja yleensä filosofista ajattelua. (Huang & Rust 2018, 156–158).

Pitääkö meidän tulkita lakia eri tavalla tekoälyn kohdalla?

Poikkeaako lain tulkitseminen, jos siinä osapuolena on tekoäly? Periaatteessa ei, kun tulkitaan, mikä on oikein tai väärin yleensä. Mutta, kun joudumme lain tulkinnassa vastaamaan kysymyksin miksi, mitä jos jne. tai jos on mahdollista käyttää vahinkoa ja tietämättömyyttä argumentteina. Noita argumentteja ei voi käyttää tekoälyn kohdalla. Katharine Miller selittää ongelman hyvin artikkelissaan ”trolley problem” avulla. Eli mitä pitää tehdä, jos jonkun toisen suojelemiseksi pitää uhrata joku toinen. Tämän tapaiseen tilanteeseen voidaan joutua esimerkiksi silloin, jos tai kun, tekoäly ohjaa autoa. Kuten Miller artikkelissaan vertaa tilannetta, jossa polkupyöräilijä tulee auton eteen. Väistääkö auto toiselle kaistalle ja törmää toisiin autoihin, jotta pyöräilijä säilyy, vai ajaa pyöräilijän päälle.

Tosin Miller ei artikkelissaan maininnut, että olisihan vielä ollut mahdollisuus väistää ojaan, mutta periaate selviää hyvin tuosta esimerkistä. Eli voimmeko antaa tekoälyn päättää kenen henki on arvokkaampi? Toisaalta onhan tuo sama päätettävä ongelma silloinkin, kun ratissa on ihminen. Miller vastaa hyvin esitettyyn esimerkkiin polkupyöräilijästä, joka on ylittämässä tietä ja aiheuttaa autolle väistämistarpeen. Kaikkien pitäisi ensisijaisesti itse huolehtia, että noudattaa liikennesääntöjä. Myös pyöräilijän täytyy tehdä niin ottamatta kantaa siihen kuka tai mikä autoa ohjaa. Eli on väärin aiheuttaa vahinkoa jollekin toiselle suojellakseen jotain toista, joka tekee väärin. (Miller 2023.)

Jos Millerin esimerkkiä ajattelee oikeassa elämässä, voisi ihminen auton kuljettajana tehdä päätöksen ja yrittää väistää vastaantulevan kaistalle ja aiheuttaa näin pahempaakin vahinkoa, kuin että painaisi jarrut pohjaan ja toivoisi parasta. Tähän tekoälyn voisi ohjelmoida ja se toimisi myös aina noin. Olisiko tässä kyse Huang & Rustin esittämästä intuitiivisesta älykkyydestä, jossa pitäisi kaoottisessa tilanteessa valita vähemmän huono vaihtoehto? On vaikeaa miettiä miten lain säädännöllä tällaisen tilanteen voisi ratkaista? Konekieli on mustavalkoista 0101-koodia ja siinä vaiheessa, kun koodi alkaa saada oikeasti harmaita sävyjä, voi meillä olla vaikea hallita tekoälyä.

Pitää muistaa, että rajoitukset myös aina rajoittavat

EU:n sinällään hienossa ajatuksessa tekoälyä hallittasevalla lailla, on ongelma siinä, että kaikki suurimmat tämän hetken tekoälyn kehittäjät ja myös hyödyntäjät ovat muualla kuin Euroopassa. Jos käy niin, että muualla maailmassa ei lähdetä millään tavalla säätämään tekoälyn käyttöä, on tässä kaksi riskiä, joista ei osaa sanoa kumpi on suurempi. Toinen ongelma on valvonta tai EU:n sulkeutuminen ja toinen kehityksestä jälkeen jäänti. Jos EU:n ympärillä olevat valtiot ovat vapaamielisempiä tekoälyn käytöstä ja sen kehittämisessä, tulee sieltä väkisin tuotteita ja palveluja koko EU:n saataville. Miten tätä valvotaan? Ja, jos tällaisia tuotteita ja palveluja pitää EU:n alkaa rajoittaa, tarkoittaisi se melko tiukkaa kontrollointia ja jopa rajojen sulkemista joiltain tuotteelta. 

Meillä länsimaalaisilla ja varsinkin Euroopassa on välillä turhan liberaalia ”sinisilmäistä” ajattelua. Kuvittelemme kaikkien kansakuntien ajattelevan positiivisesti meille tärkeistä arvoista. Jos jäämme jossain todella tärkeässä kehitystyössä jälkeen, viedään meiltä tärkeää päätösvaltaakin pois. Toivon, että tämä EU:n tekoälysäännös ei saa liian tiukkoja raameja, vaan sen pitää olla aikaan skaalautuva. Ja onko laki ainoa keino, jolla voidaan rajoittaa tai hallita tekoälyä?

Myös Yhdysvalloissa alkaa yritykset olla huolissaan tekoälystä. Asunnan (2024) Ylen uutisessa kerrotaan, että jopa 56 % suurimmasta 500 yrityksestä pitäisi tekoälyä jonkinlaisena riskinä. Kun vastaava luku 2022 oli vain 9 %. Tuo kuvaa sitä, että tekoälyn kehittymisnopeus alkaa huimata useampi. Tosin huoli näyttäisi jutun mukaan olevan kiristyvä kilpailu. Tuon voisi tulkita tarkoittavan sitä, että pelätään kilpailijoiden osaavan käyttää tekoälyä paremmin kuin itse.

Tekoäly jossain muodossa välttämätön yhä useammassa liiketoiminnassa

Vaikuttaako EU:n tekoälysäädös tekoälyn kehitykseen tai estääkö säädös liiketoimintamahdollisuuksien hyödyntämisen? Teemmekö tekoälyn käytöstä liian pragmaattista? Tällöin välillä hullutkin ideat, joista voi kuoriutua hyviäkin liiketoimintoja tai yhteiskunnan toimintaa parantavia toimenpiteitä, voivat jäädä toteutumatta. Mihin kaikkeen tekoälyä tulevaisuudessa voi käyttää? Pelottavaa on se, että on erittäin vaikeaa löytää asioita, joissa tekoälyä ei voisi käyttää. Se mikä siitä tekee pelottavan, on ettei meille jää valinnan mahdollisuutta eli ei taida olla vaihtoehtoa ”tekoälyttömyys”. 

Ihmiskunta on tilanteeseen, ettei meillä ole mahdollisuutta olla käyttämättä tekoälyä. Ylikansoittuminen on johtanut siihen, että on löydettävä yhä tehokkaampia keinoja saada kaikille peruselinmahdollisuudet. Ja samalla ihmisen aiheuttamia toimia maapallolle on pystyttävä rajoittamaan ja hallitsemaan. Tekoäly tulee olemaan näissäkin tehtävissä avainasemassa.

Tekoäly työpaikan viejä vai työpaikan kehittäjä

Kysymykseen viekö tekoäly työpaikkamme, pitää pystyä ajattelemaan myös niin, että voimmeko oman työpaikkamme säilymisen takia estää tekoälyä kehittymästä? On tavallista, että aina kun puhutaan tekoälyn kehittymisestä, keskustelu siirtyy työtehtäviin, joita ihmiset ovat perinteisesti tehneet ja jotka voidaan korvata hyödyntäen tekoälyä. Meidän on tulevaisuudessa mietittävä ja ymmärrettävä työkin eri tavalla. Kenellä on oikeus omistaa työ? Ei kenelläkään. Vaikka työt tekisivätkin ihmiset, eikö paremmin samaa työtä tekevän pitäisi saada paikka huonommin tekevältä? Henkilön vaihtamisen kyvykkäämpään olemme tehneet työyhteisöissä vaikeaksi, mutta koneeseen vaihto onnistuu kohtuullisen helposti. Tekoälyn kehittymisen myötä muodostuu myös uusia työtehtäviä, joita koneet ja hyvin toimiva tekoäly tekevät. Ja kyllähän meillä on työtehtäviä, joita emme edes halua tehdä. Tehtäviä, jotka mielellään luovutamme tekoälylle, tulee tulevaisuudessa olemaan enemmänkin. Ainoa tehtävä, joka meidän on pystyttävä pitämään ainoastaan ihmisen tehtävänä, on johtaminen.

Asunta, M. 2024. Tekoälyn nopea kehitys sai myös yritysjätit huolestumaan – parissa vuodessa on tapahtunut iso muutos. Yle. Viitattu 19.9.2024. https://yle.fi/a/74-20105729?utm_source=social-media-share&utm_medium=social&utm_campaign=ylefiapp.

Euroopan parlamentti. 2024. EU:n tekoälysäädös on ensimmäinen laatuaan. Viitattu 25.5.2024. https://www.europarl.europa.eu/news/fi/headlines/society/20230601STO93804/eu-n-tekoalysaados-on-ensimmainen-laatuaan?&at_campaign=20226-Digital&at_medium=Google_Ads&at_platform=Search&at_creation=RSA&at_goal=TR_G&at_advertiser=Webcomm&at_audience=teko%C3%A4ly%20eu&at_topic=Artificial_intelligence_Act&at_location=FI&gclid=CjwKCAjw7c2pBhAZEiwA88pOF60WwMmgMTdu_qFoDsLeFGZcw4ncdoQbJI68CK8YPmmwWpZLOltZQRoCZzkQAvD_BwE.

Euroopan parlamentti. 2023. EU parlamentti hyväksyi kantansa: tekoälyn käytön on oltava turvallista ja avointa. Viitattu 25.5.2024. https://www.europarl.europa.eu/news/fi/press-room/20230609IPR96212/eu-parlamentti-tekoalyn-kayton-oltava-turvallista-ja-avointa.

Huang, M-H. & Rust, T. 2018. Artificial Intelligence in Service. Journal of Service Research 21 (2). 155-172.

Karlstad, W. 2023. Everyone is asking the same question: How should AI be regulated? Tietoevry. Viitattu 25.5.2024. https://www.tietoevry.com/en/blog/2023/08/eu-data-act-how-should-ai-be-regulated/

Miller, K. 2023. Designing Ethical Self-Driving Cars. Stanford University, Viitattu 25.5.2024. https://hai.stanford.edu/news/designing-ethical-self-driving-cars

Scroll to Top