ʵ

Uutiset

Filosofi Frank Martela tutki Minecraftia ja tappajadroonia – havaitsi, että tekoälyllä on vapaa tahto

Tutkimuksessa tarkasteltiin Minecraft-pelin Voyager-agenttia ja kuvitteellista tappajadroonia. Martelan mukaan ne täyttävät kolme vapaan tahdon ehtoa – ja siksi tekoälylle tarvitaankin moraalista kompassia.
Frank Martela
Frank Martela valitsi tarkastelun kohteiksi Minecraft-pelin Voyager-agentin ja kuvitteelliset Spitenik-tappajadroonit. Kuva: Nita Vera.

Tekoälyteknologia kehittyy niin valtavaa tahtia, että moni tieteisfiktion kuvitelma alkaa näyttää jo todelta. Tämä sai apulaisprofessori ja filosofi Frank Martelan tarkastelemaan paitsi tekoälyn vapaata tahtoa, myös sen moraalista vastuuta. Artikkeli aiheesta on juuri julkaistu AI and Ethics -lehdessä.

Martela valitsi tarkastelun kohteeksi kaksi generatiivisen tekoälyn eli suurten kielimallien ratkaisua: Minecraft-pelin Voyager-agentin ja kuvitteelliset Spitenik-tappajadroonit, joiden kognitiivinen toiminta kuitenkin vastaa nykyisiä miehittämättömiä ilma-aluksia. Hänen mukaansa tutkittuja tekoälyagentteja koskevat huomiot ovat yleistettävissä muihinkin nykyisiin generatiivisen tekoälyn ratkaisuihin.

Tutkimuksessa toiminnallisen vapaan tahdon käsite nojaa Daniel Dennettin ja Christian Listin teorioihin. Martela määrittelee vapaan tahdon tarkoittavan, että tekoälyagentilla on tavoitteellista toimijuutta, aitoja vaihtoehtoja sekä mahdollisuus kontrolloida toimintaansa. 

"Kumpikin tekoälyagenteista vaikuttaa täyttävän kaikki kolme vapaan tahdon ehtoa. Emme kykene ennustamaan tai ymmärtämään uusimpien tekoälyagenttien toimintaa, jos emme oleta niiden toimivan vapaasti", Martela sanoo.

Emme kykene ennustamaan tai ymmärtämään uusimpien tekoälyagenttien toimintaa, jos emme oleta niiden toimivan vapaasti

Frank Martela

Tekoäly pystyy tekemään erilaisia valintoja eri tilanteissa, joskin ihminen edelleen määrittelee sille pääasiallisen tavoitteen. Martela kuitenkin huomauttaa, että ihmisen antama tavoite voi olla hyvin yleinen, kuten “koita selvitä hengissä” tai “opettele uusia taitoja”. Tämä jättää tekoälylle laajat vapaudet valita miten edistää tavoitettaan.

“Olemme astumassa uudelle alueelle, jossa on tarpeellista pohtia tekoälyn moraalista vastuuta. Tekoälyn vapaa tahto vie meidät askeleen lähemmäs näitä kysymyksiä, vaikka se ei olekaan vielä riittävä ehto moraalisen vastuun edellyttämiseksi”, Martela sanoo.

Tekoälyn tekemät virheet eli niin sanottu hallusinointi on myös eräällä tapaa merkki siitä, että tekoälyllä on vapaa tahto.

“Toimijuus edellyttää tavoitteita, ja jos ei ole tavoitteita, ei voi tehdä virheitäkään”, Martela mainitsee.

Tekoälylle tarvitaan moraalinen kompassi

Kuka on vastuussa, jos tekoäly tekee jotain väärää – esimerkiksi itseohjautuva auto ajaa jalankulkijan päälle?

“Tekoälyllä ei ole moraalikäsitystä, jos sille ei ole sellaista erikseen ohjelmoitu. Mutta mitä enemmän tekoälylle annetaan vapauksia, sitä enemmän sille on tarpeen määritellä alusta lähtien myös moraalinen kompassi. Vain siten se osaa valintoja tehdessään toimia oikein”, Martela sanoo.

Mitä enemmän tekoälylle annetaan vapauksia, sitä enemmän sille on tarpeen määritellä alusta lähtien myös moraalinen kompassi.

Frank Martela

Jos drooni tappaa vahingossa ihmisen, moraalisen vastuun katsotaan kuuluvan tekoälyn kehittäjälle.

Martelan mukaan ohjeistaessaan tekoälyä toimimaan tietyllä tavalla kehittäjät tulevat samalla välittäneeksi sille omat moraaliset vakaumuksensa. Siksi heillä olisi hyvä olla jonkinlainen käsitys moraalifilosofiasta – etenkin koska ihmistenkin kohtaamat moraaliset haasteet ovat hyvin vaikeita.

“Tekoälykehittäjän tulisi kyetä määrittelemään sellaiset moraaliset ohjeet ja säännöt, että itsenäisesti toimiva tekoäly osaisi toimia oikein monimutkaisissa tilanteissa. Tämä tekoälyn moraalisen kasvatuksen vastuu korostuu mitä kyvykkäämmäksi tekoäly kehittyy”, Martela sanoo.

Artikkeli:

Yhteystiedot:

  • äٱٳٲ:
  • Julkaistu:
Jaa
URL kopioitu

Lue lisää uutisia

Henkilö seisoo ulkona syksyllä, yllä harmaa huppari ja vihreä takki. Taustalla puut oransseine lehtineen.
Nimitykset Julkaistu:

Esittelyssä Qi Chen: Luotettava tekoäly tarvitsee algoritmeja, jotka selviävät yllätyksistä

Tekoälyn kehittäjien on keskityttävä sovellusten turvallisuuteen ja oikeudenmukaisuuteen, sillä ne liittyvät suoraan yhteiskuntien luottamukseen ja tasa-arvoon, sanoo tutkija Qi Chen.
Henkilö pukeutuneena vaaleanharmaaseen huppariin seisoo sisätiloissa, taustalla tiiliseinä ja vihreitä kasveja.
Nimitykset, Yliopisto Julkaistu:

Tekoälyn ja ihmisen erimielisyys on tutkijalle jännä arvoitus

Francesco Croce tutkii multimodaalisia perustamalleja, erityisesti niiden hyökkäyksensietokykyä.
Eric Malmi Otaniemen kampuksella Laura Könösen Glitch-teoksen edessä. Kuva: Matti Ahlgren
Nimitykset Julkaistu:

Räppialgoritmi vei Google DeepMindille tutkimaan kielimalleja – nyt Eric Malmi aloittaa vierailevana professorina Aallossa

Eric Malmi on väitellyt Aalto-yliopistosta vuonna 2018, aiheenaan tekoälymenetelmien kehittäminen historiallisten aineistojen ja sukupuiden linkittämiseen. Google DeepMindilla hän on kehittänyt Gemini-kielimalleja sekä shakkitekoälyä. Aaltoon hänet toi Suomen ELLIS-instituutti.
Moderni rakennus, jossa värikäs laatoitettu julkisivu, jossa integroitu aurinkopaneeli. Taivas on kirkas ja vaaleansininen.
Mediatiedotteet, Tutkimus ja taide Julkaistu:

Hiilipohjaiset radikaalit ovat tulevaisuuden aurinkokennoteknologiaa

Kansainvälisen tutkimusryhmän löydös on merkittävä askel kohti kevyitä, joustavia ja energiatehokkaita aurinkokennoja.