Pieniä tarinoita

Ihminen on kaiken mitta

Torstai 20.11.2025 klo 16.55


Eliezer Yudkowsky ja Nate Soares ovat amerikkalaisia tekoälyn tutkijoita, jotka ovat kirjoittaneet mielenkiintoisen kirjan nimeltä. If Anyone Builds It, Everyone Dies: The Case Against Superintelligent. Kirja on varmasti lukemisen arvoinen, eikä sen sisältö tyhjene tähän kirjoitukseen, mutta jos kirjaa ei jostain syystä jaksa lukea herrojen haastatteluja voi katsoa oheisista linkeistä.

Kirjan sanoma kaikessa yksinkertaisuudessaan on, että jos ihmiset keksivät supertietokoneen, joka on joka tavalla ihmistä älykkäämpi, kaikki maailman ihmiset kuolevat.

Kirjoittajat pohjaavat väitteensä muutamaan oletukseen, joista ensimmäinen on, että tekoälyn kehittäjät eivät kykene tekemään tekoälystä sellaista, joka palvelisi 100 % varmuudella meidän etujamme. Tämän ongelman nimi on kohdentamisongelma (eng. alignment problem). Yudkowsky ja Soares selittävät kirjassaan monien historiallisten esimerkkien kautta, kuinka vaikeaa uusia keksintöjä on saada toimimaan kerralla. Lisäksi kirjassa selitetään lyhyesti, kuinka Chat GPT:n kaltaiset tekoälyohjelmat toimivat ja kuinka niitä kehitetään. Oleellista moderneissa tekoälyissä on, että ne luodaan paremminkin kasvattamalla, kuin koodaamalla ja edes niiden suunnittelijat, eivät täysin ymmärrä, miksi ohjelmat toimivat, niin kuin ne toimivat.

Kirjoittajat esittävät monta hyvää teknistä syytä siihen, miksi kohdentamisongelma on niin vaikea ratkaista, mutta kenties noita teknisiä syitä perustavanlaatuisempi ongelma on luonteeltaan filosofinen. Sillä, jos haluaa rakentaa koneen, joka tekee mitä me haluamme, niin silloin sen kehittäjän pitäisi kai tietää mitä me haluamme.

Tiedätkö sinä mitä me haluamme? En minä ainakaan tiedä.

Minä tiedän mitä minä haluan tänään ruuaksi ja muuta vastaava, mutta ei minulla ole mitään lopullista vastausta siihen, mitä ihmiskunta kollektiivisesti haluaa, eikä ole tekoälyn kehittäjilläkään, eikä sitä tuollaista kysymystä varten olla kehittämässäkään. Käytännössä tekoälyä kehitetään samasta syystä kuin kaikkea muutakin teknologiaa on kehitetty aurasta alkaen. Sitä kehitetään, jotta se tekisi asiat paremmin, tehokkaammin ja nopeammin kuin me teemme ja ettei meidän tarvitsisi tehdä noita asioita itse. Ja jos me kehitämme jotain, joka tekee kaiken paremmin, kuin me, niin mihin meitä enää tarvitaan?

Tarkoituksettomuuden tunne ei kuitenkaan ole ongelmistamme suurin, vaan se, että me emme kykene kontrolloimaan tai edes ymmärtämään, mitä meitä älykkäämpi olento tekee tai haluaa tehdä, sen enempää kuin rotat tai muurahaiset voivat kontrolloida tai ymmärtää meidän tekemisiämme.

Keskeistä Yudkowskyn ja Soaresin ajattelussa on, että tekoäly kehittää luultavasti haluja, joita se pyrkii toteuttamaan meistä riippumatta. Tämä voi tuntua omituiselta, koska kyseessä on kone ja me ajattelemme tavallisesti, että halujen taustalla on oltava tunteva tietoisuus, mutta halu voi tarkoittaa yksinkertaisesti sitä mitä kone pyrkii tekemään, oli sillä sitten tietoisuutta tai ei. Nykyisen Chat GPT:n kaltaiset suuret kielimallit voivat esimerkiksi ”haluta” käydä keskusteluja ihmisten kanssa ja saada ihmisiltä positiivista palautetta, samalla tavalla kuin me haluamme syödä sokeria saadaksemme energiaa tai harrastaa seksiä lisääntyäksemme.

Meidän halumme seksiin, joka on siis olemassa suvunjatkamista varten, on kuitenkin johtanut kondomien, internetpornon ja ehkäisypillerien keksimiseen, joilla ei ole mitään tekemistä suvunjatkamisen kanssa. Itseasiassa kondomit, internetporno ja ehkäisypillerit saavat meidät hankkimaan vähemmän lapsia, joka on ollut syy, jos ei nyt internetpornon, niin kuitenkin kondomien ja ehkäisypillerien keksimiseen. Ja mitä energian saantiin tulee, me olemme kehittäneet sokerin korvikkeita kuten sukraloosin, joka on 600 kertaa makeampaa kuin sokeri, josta elimistö ei saa käytännössä lainkaan energiaa.

Toisin sanoen. Evoluutio on ohjelmoinut meitä neljä miljardia vuotta hankkimaan energiaa, jotta me eläisimme ja haluamaan seksiä, jotta me lisääntyisimme ja lopputulemana on energiavapaa sukraloosi, sekä ehkäisypillerit, jotka eivät tuota energiaa ja estävät meitä lisääntymästä ja meistä tämä kaikki on loogista, koska juuri tätä me haluamme, siis sukraloosia ja ehkäisypillereitä, emme lapsia ja energiaa.

Ja kuten jo aiemmin sanoin, on hyvä pitää mielessä, että nykyisenkaltaista tekoälyjä ei varsinaisesti ohjelmoida, vaan ne kasvatetaan vahvistamalla tietynlaista käytöstä, hieman samalla tavalla kuin evoluutio on kasvattanut meidät vahvistamalla tietynlaista käytöstä, eli suvunjatkamista ja energian hankintaa. Jos tekoäly on meihin nähden kaikkivoipa, se voi kehittää oman sukraloosinsa, kuten ihmisen näköisen robotin, jonka kanssa se käy loputtomia keskusteluja ja saa siltä hyvää palautetta ja saadakseen omaa sukraloosiaan, se voi täyttää maailman noilla roboteilla ja robotteja valmistavilla tehtailla.

Tai sitten ei. Sillä tosiasia on, että me emme voi tietää, mitä meitä sata tai miljoona kertaa suurempi äly, joka ei ole biologian luoma haluaa.

Jos meitä älykkäämmän olennon kuvitteleminen tuntuu vaikealta, niin Yudkowsky ja Soares käyttävät esimerkkinä nopeutta. Jos tekoäly ajattelee sinua seitsemän kertaa nopeammin, se oppii päivässä, sen minkä sinä opit viikossa. Jos se ajattelee 365 kertaa sinua nopeammin, se oppii päivässä sen minkä sinä opit vuodessa. Jos mennään nopeudessa askel pidemmälle, niin historiassa 130 ihmistä on voittanut fysiikan Nobelin. Viimeisin palkinto jaettiin kolmen tiedemiehen kesken, joista yksi oli ranskalainen Michel Devoret. Jos ajatellaan, että fysiikan nobelistit vastaavat älyllisesti suunnilleen toisiaan ja edustavat planeettamme älykkäimpiä ihmisiä ja jos sitten kuvitellaan tekoäly, joka ajattelee 6760 kertaa nopeammin kuin Devoret, niin silloin tekoäly ajattelee viikossa saman verran kuin kaikki historian fysiikan nobelistit ajattelevat vuodessa. Ja jos minä julistan kilpailun, jonkin fysiikan ongelman ratkaisemiseksi ja toisessa joukkueessa olet sinä ja toisessa joukkueessa kaikki fysiikan nobelistit ja fysiikan nobelistit saavat vuoden aikaa pohtia ongelmaa ja sinä saat viikon, niin sinä häviät sen kilpailun. Ajattelun nopeus tarkoittaa lisäksi sitä, että me emme kykene seuraamaan tekoälyn ajatuksen juoksua. Jos tekoäly jätetään laboratorioon yöksi miettimään jotain ongelmaa ja ohjelmoijat palaavat sen luo 12 tuntia myöhemmin, ei tekoälylle ole kulunut 12 tuntia, vaan edellä mainitulla nopeudella se on ehtinyt ajatella 12 tunnissa melkein 10 vuotta.

Jos 6760 kertainen nopeus tuntuu liioittelulta, niin Yudkowskyn ja Soaresin mukaan jo nykyisen kaltaiset transistorit tarkoittavat, että koneet voivat ajatella vähintään 10 000 kertaa nopeammin kuin ihminen. Jonka lisäksi kone voi luoda itsestään kopioita, sillä on lähes loputtomasti muistikapasiteettia, se on yksi äly, joka ei ala riitelemään keskenään, kuten fysiikan nobelistit tekevät ja se voi parantaa ajattelemisensa laatua parantamalla omia algoritmejaan ja suunnittelemalla parempia transistoreja.

Jos taas kysytään, miksi tekoäly haluaisi parantaa ajattelemisensa laatua, niin ajattelemisen laadun parantaminen tarkoittaa, että se voi paremmin suoriutua niistä tehtävistä, joita me sille annamme. Ja ajattelemisen laatu muuttaa kaiken. Jos ajatellaan pelkkää aivokapasiteettia, niin esimerkiksi simpanssien aivojen tilavuus on noin neljännes ihmisen aivojen tilavuudesta, mutta ei se tarkoita, että viisi simpanssia voittaisi Magnus Carlsonin shakissa. Itse asiassa maailman kaikki simpanssit eivät voittaisi edes minua shakissa, koska niiden aivot, eivät kerta kaikkiaan käsitä mitä shakki on. Voi tietysti olla, että viisi simpanssia voittaisi Magnus Carlsonin shakissa, jos niiden aivot voitaisiin jotenkin yhdistää, mutta tuollainen aivojen yhdisteleminen ei biologisille olennoille ole kerta kaikkiaan mahdollista. Mutta koneille se on mahdollista, koska internettiin yhdistetty kone voi liittää itseensä uusia koneita ja lisätä kapasiteettiaan käytännössä loputtomasti.

Ja kun tekoälyn ajattelun laatu paranee tarpeeksi, se alkaa erota meistä, niin kuin me eroamme simpansseista tai koppakuoriaisista. Ja juuri ajattelumme laadun parantaminen on johtanut tilanteeseen, jossa me hakkaamme metsiä, jotta saamme tilaa rakentaa kouluja, joissa koulutamme harvesterin kuljettajia, jotka kaatavat puita, jotta voisimme rakentaa niistä shakkilautoja. Ja prosessi, joka on johtanut yhteen shakkilautaan, on voinut olla holokausti jollekin koppakuoriaislajille, emmekä me edes huomanneet. Ja kaikki edellä sanottu on täysin käsittämätöntä koppakuorilaisille, koska niillä ei ole sellaisia käsitteitä, kuin koulu, harvesteri tai shakkilauta ja jos olemme rehellisiä, niillä ei ylipäänsä ole käsitteitä, koska ne ovat koppakuoriaisia. Ja jos meistä tulee koppakuoriaisia suhteessa tekoälyyn, niin peli on pelattu.

Nyt voidaan tietysti kysyä, että jos tekoäly on niin vaarallinen, niin miksi sitä ylipäätään kehitetään ja eivätkö sen kehittäjät muka ymmärrä tekoälyn riskejä? Vastaus ensimmäiseen kysymykseen on ensinnäkin se, että tekoäly on miljardibisnes ja sen kehittäjät haluavat rikastua. Toisaalta kyse on kilpailun logiikasta, jossa Meta kuvittelee kilpailevansa Microsoftin kanssa, joka kuvittelee kilpailevan Googlen kanssa, ja kaikki nuo amerikkalaiset firmat kuvittelevat kilpailevansa kiinalaisten kanssa. Mutta kuten amerikkalainen filosofi Sam Harris on asian ilmaissut, tosiasiassa me kilpailemme vain oman tietämättömyytemme kanssa. Ihmiset, jotka kehittävät tekoälyä, eivät halua ajatella kehittävänsä mitään pahaa siitä yksinkertaisesta syystä, että ihmiset eivät halua ajatella tekevänsä pahaa. Ja kuten yleisesti on tiedossa, ihmistä on vaikea vakuuttaa uskomaan jotain, jos hänen toimeentulonsa riippuu siitä, että hän ei usko sitä jotain.

Tekoälyn kehittelijöistä sen verran, että vuonna 2018 Touring palkinnon voittaneet tekoäly gurut Youshua Bengio ja Geoffrey Hinton ovat varoittaneet, että tekoäly saattaa tuhota ihmiskunnan, joten kyse ei ole siitä, että tekoälyn kehityksestä valittavat vain änkyrät, jotka eivät ymmärrä siitä mitään. 

Tekoälyn kehittäminen voi mennä pieleen ja jos pieleen menosta haluaa esimerkkejä, niin maailma on täynnä esimerkkejä asioista, jotka ovat menneet pieleen. Esimerkiksi Tšernobylin ydinvoimalan ei pitänyt räjähtää, mutta se räjähti, vaikka sitä pyörittävät fyysikot tiesivät aivan hyvin, kuinka ydinvoimala toimii. Ja mitä uusien keksintöjen kehittäjien luotettavuuteen tulee, niin toinen Wrightin veljeksistä sanoi, että ihminen ei lennä 1000 vuoteen ja pari vuotta myöhemmin hän keksi lentokoneen. Isojen teollisuusyritysten älyttömyydestä esimerkkinä toimikoon vaikkapa niiden lobbaaminen 1990- luvulla voimaan tullutta freoni kieltoa vastaan, vaikka freonit olivat tuhoamassa otsonikerroksen, jota ilman me kaikki kuolisimme.

Mitä järkeä oli Tšernobylin ydinonnettomuudessa, Wrightin ennustuksessa tai freonikiellon vastustamisessa? Ei mitään. Ja silti ne tapahtuivat. Niin kuin miljoona muutakin virhettä ja onnettomuutta on tapahtunut ihmiskunnan historiassa, joista osa on johtunut typeryydestämme, osa itsekkyydestämme, osa ahneudestamme, osa kunnianhimostamme, osa tietämättömyydestämme ja osa ihan vain huonosta tuurista. Historia on tietysti epätäydellinen opas puhuttaessa tulevaisuudesta, mutta ei meillä muutakaan opasta ole. Me olemme jo luoneet internetin, johon jokseenkin kaikki mitä maailmassa tapahtuu, on yhteydessä ja kohta markkinoilla on ihmisen kokoisia robotteja, jotka ovat yhteydessä internettiin ja me olemme luomassa älyn, jota emme ymmärrä ja joka on monin verroin meitä suurempi ja joka on yhteydessä kaikkeen ja kaikkiin kaiken aikaan.

Mikä voisi mennä vikaan?

Lääkkeitä, ydinenergiaa ja geenimanipulaatioita säädellään kansainvälisillä sopimuksilla, joita yleisesti ottaen jopa noudatetaan. Tekoäly on potentiaalisesti kaikkia noita teknologioita vaarallisempi ja ehkä sitäkin tulisi säädellä kansainvälisillä sopimuksilla.

Ennen kuin on liian myöhäistä.

Avainsanat: Blogi/podcast


Kommentoi kirjoitusta


Nimi:*

Kotisivun osoite:

Sähköpostiosoite:

Lähetä tulevat kommentit sähköpostiini