Tay AI

Tämän takia Microsoftin keskustelurobotti sekosi

Noin kuukausi sitten Microsoft lanseerasi somessa tekoälyn, keskustelurobotin nimeltä Tay, joka keskusteli Twitterissä, Klikissä ja GroupMe-palvelussa. Robotti oppi hetkessä puhumaan rasistisia ja natsilaisia törkeyksiä. Lue miksi tekoäly pimahti.

perjantai 22. huhtikuuta 2016

Idea oli hyvä, kun Microsoft toi noin kuukausi sitten someen Tayn, keskustelurobotin, joka tekoälyn turvin yritti keskustella kuin 19-vuotias nainen ja jonka oli tarkoitus oppia nettikeskusteluistaan.

Tekoäly pimahti

Valitettavasti oppi kaatoi tekoälyn ojaan, sillä samalla kun se oppi nettikäyttäjien kanssa käydyistä keskusteluista se myös lähti mukaan sille syötettyihin herjoihin. Keskustelurobotista tuli muutamassa tunnissa muun muassa kansanmurhan kannattaja ja Hitlerin ylistäjä. Tay myös piti feminismiä syöpänä ja varoitti ”vääristä” roduista.

Mikä sitten meni pieneen? Asiaa valottaa Brandon Wirtz, tekoälytekniikkaan erikoistuneen Recognant-yhtiön johtaja ja perustaja:

1: Tay ei ollut rakennettu itsearvioivaksi. Sillä ei ole vaistoja tai alitajuntaa, joten keskustelurobotti ei ymmärtänyt vain sivuuttaa keskustelufoorumeilla esimerkiksi natsilaisesti käyttäytyviä. Siksi siitä tuli itse samanlainen.

2: Microsoftilla ei ollut suojatoimenpiteitä varmistamassa, että Tay tietää, mikä on oikein ja mikä väärin. Nyt internet pystyi vedättämään robottia.

Tay sulkeutui sen jälkeen, kun se oli keskustellut alle vuorokauden. Se tullee verkkoon uudelleen todennäköisesti vasta sitten, kun Microsoftilla on uusittu tekoälyn koodia.

## Lähde: readwrite.com

Ehkä sinua kiinnostaa...