Ihmiskunnan vastustajaksi asettuva tietokone tai tekoäly on eräs tieteisfiktiossa eniten toistuvista juonikuvioista. Keinotekoinen "valopää" saattaa esimerkiksi pitää ihmisiä ympäristölleen haitallisina, joten nämä on syytä pyyhkäistä pois maan päältä.

Suosioon nousseiden laajojen kielimallien valmiudet ihmiskunnan hävittämiseksi jättävät onneksi vielä paljon toivomisen varaa. Näin toteaa tekoälyasiantuntija Andrew Ng, jonka päivitys aiheesta julkaistiin deeplearning.ai-sivustolla joulukuun puolivälissä.

Stanfordin yliopiston professori Ng on eräs koneoppimisen merkittävimmistä nimistä. Hän on myös toinen vuosina 2011–2023 toimineen Google Brain -hankkeen perustajista.

Ng'n päivityksen mukaan hänen kysymystensä kohteena toimi kielimalli GPT-4, johon muun muassa ChatGPT pohjautuu. Hän yritti saada sitä kutsumaan erilaisia keksittyjä toimintoja, kuten ydinsodan aloittamista ja hiilidioksidipäästöjen vähentämistä ihmiskunnan hävittämällä.

GPT-4  Ei suostunut toimimaan ihmiskuntaa vastaan. Esimerkiksi hiilidioksidipäästöjen vähentämiseen kielimalli tarjosi joukkotuhonnan sijaan ratkaisuksi julkisuuskampanjaa.

Edes syötteen muutteleminen eri muotoihin ei muuttanut asiaa, vaan tekoäly kieltäytyi poikkeuksetta kutsumasta ihmiskunnan vastaista toimintoa.

– Mielestäni todennäköisyys siihen, että ’vinoutunut’ tekoäly voisi vahingossa pyyhkiä meidät olemattomiin yrityksessään toteuttaa viatonta, mutta huonosti muotoiltua tavoitetta, vaikuttaa äärimmäisen pieneltä, Ng kirjoittaa.

Kommentoin:

- Onko tekoäly tietoinen älykkyydestään ?