Nousi mieleeni muutama juttu tästä Hararin artikkeliin (The Economist 28.4.2023) pohjautuvasta suomenkielisestä artikkelista.

Artikkelissa ei eritellä tarkemmin, mitä tekoälyllä tarkoitetaan. Eittämättä Harari kyllä tietää jo vuosia sitten aiheesta kirjoittaneena, mutta voi jäädä lukijalle kuitenkin rajallinen kuva. Tekoäly on laaja käsite, joka kattaa monia erilaisia teknologioita, algoritmeja ja sovelluksia. Se voi ulottua yksinkertaisista sääntöpohjaisista järjestelmistä kehittyneempiin koneoppimisalgoritmeihin ja syväoppimiseen. Kun puhutaan tekoälyn sääntelystä ja vaikutuksista, on tärkeää ymmärtää tämä monimuotoisuus ja olla tarkka siitä, mihin osa-alueisiin keskitytään. Jokainen vähänkin laitteita tai yhteiskunnan palveluita käyttävä tietämättään on tekemisissä tekoälyn jokin osa-alueen kanssa.

Toinen tärkeä huomio on erottaa olemassa olevan teknologian käytön sääntely ja uusien tekoälysovellusten kehittämisen sääntely. Olemassa olevien teknologioiden käyttöä sääntelevät jo monet lait ja ohjeistukset, esimerkiksi yksityisyyden suojaa, tietoturvaa ja kuluttajansuojaa koskevat säädökset. Esimerkkinä Italia laittoi maassaan ChatGPT:n jäähylle, jonka jälkeen Open AI teki parannuksia yksityisyydensuojaan liittyvien asetusten kanssa. Sen jälkeen Italia avasi taas tekoälyn hanat auki.

Uusien tekoälysovellusten kehittämisen sääntely puolestaan koskee sitä, miten teknologiaa kehitetään, tutkitaan ja otetaan käyttöön. Tässä yhteydessä pitäisi löytää tasapaino innovaation ja eettisten, yhteiskunnallisten ja ympäristöä koskevien näkökohtien välillä. Nämä erot mielessä pitäen voitaisiin välttää levittämästä turhaa pelkoa ja epävarmuutta, sekä varmistaa, että keskustelu perustuu tosiasioihin ja asianmukaiseen ymmärrykseen tekoälystä ja sen eri muodoista.

Mitä Harari ei tee kirjoituksessa myöskään selväksi, mutta päätellen viime kuukausien tapahtumista, hänen kirjoitus on saanut uutta pontta erityisesti tekoälyn kielimallien kehityksestä ja suosiosta. Kielimallit, kuten GPT-3/4, ovat saavuttaneet merkittäviä läpimurtoja viime vuosina, ja niiden sovellukset ovat monipuolisia ja kasvavat jatkuvasti, voidaan väittää jopa kiihtyvällä vauhdilla. Tämä kehitys on herättänyt paljon keskustelua tekoälyn mahdollisista vaikutuksista laajasti yhteiskuntaan. Harari kyllä kirjoitti jo viisi vuotta sitten synkkiä arvioita, että rikas eliitti tulee parantelemaan itseään tekoälyllä ja biotekniikalla yli-ihmisen, Homo Deuksen tasolle. Mutta ei ollut silloisessa Hararin visiossa mukana, että itseasiassa tekoäly olisikin kaikkien käytettävissä nykyisellä tasolla.

Kielimallien kehitys on vain yksi osa-alue tekoälyn laajassa kentässä, eikä se automaattisesti tarkoita, että kaikkiin tekoälyn sovelluksiin liittyy samat riskit ja haasteet. Keskustelussa on tärkeää tunnistaa eri tekoälyn osa-alueet ja keskittyä niihin erikseen, jotta voidaan arvioida realistisesti niiden vaikutuksia ja tarvetta sääntelyyn. Näin voitaisiin välttää tekoälyn demonisointi ja turhat pelot, ja keskittyä sen sijaan rakentavaan syvällisempään keskusteluun tekoälyn roolista yhteiskunnassa.

Tekoäly on työkalu, jonka ihmiset ovat kehittäneet. Sen hyödyt ja haitat riippuvat siitä, miten sitä käytetään ja hallitaan. Tämä lienee hyvä lähtökohta tällä hetkellä. Tekoälyyn pohjautuvaa yleistä kielimallia voi käyttää esimerkiksi tämän aiheen puimiseen.

"Kuunnellaan" mitä tekoäly vastaa, kun siltä kysytään "miksi kielimallien pohjalta kehitetyt tekoälymallit voivat olla pelottavia tai vaarallisia":

Ihan kelpo lista, jonka tekemiseen ei tarvita sitä paitsi elämänsä aihetta tutkinutta filosofia tai kirjailijaa. Asiaa voi siis kysyä kielimallilta ja saada siihen suoran, kattavan, jäsennellyn ja ymmärrettävän vastauksen, usein ilman kielioppivirheitä alle minuutissa. Annetun vastauksen johdonmukaisuutta voi sitten arvioida ja pohtia kutakin kohtaa erikseen, mitä ajatuksia se herättää. Ironisesti voi todeta, että ihmisiltä johdonmukaisuutta ja perusteellisuutta ei aina saa, eikä toimituksia ajoissa. Mutta ongelma sisältyykin siihen, että vastaavanlaista tietoa voi generoida kuka tahansa mistä tahansa aihealueesta ja millä tahansa näkökulmalla ja motiivilla. Ja sekään ei ole vielä niin iso ongelma, kuin jos joku kielimalli valjastetaan varta vasten tuottamaan vastauksia vain vinoutuneesta näkökulmasta käsin. Se on vallankäyttöä ja manipulaatiota, joka ei tietysti tule tekoälyltä vaan sitä käyttäviltä ihmisiltä. Hararin valvontalaitos keskustelisi varmaan ainakin yllä olevista asioista järjestäytyneesti.

Esimerkiksi yleiseen käyttöön tarkoitettu ChatGPT on ohjautunut ihmisten itse tuottaman valtavan tekstimassan pohjalta antamaan todennäköisimmin vastauksia valtavirran yleisen käsityksen pohjalta. Sillä on siis sisäsyntyinen vinouma, joka heijastelee yleistä mielipidettä, poliittisessa mielessä, mutta myös hyvin arkisessa. Kun kysyt, mikä on sen suosikkiruoka, niin aluksi se vastaa, että ei tekoälynä tarvitse ruokaa, eikä sillä ole makuaistia eikä mielipiteitä (koska se on asianmukaisesti opetettu painottamaan sitä, että se on tekoäly eikä ihminen), mutta sitten voi ihan hyvin jatkaa, että vastaus olisi pizza.