ilkeä robotti puhuu puhelimessa
Edistynyt puhelinhuijaus:

Tekoäly osaa jäljitellä perheenjäsentesi ääniä puheluissa.

Näin huijarit matkivat perheenjäsenten ääniä tekoälyn avulla

Huijarit käyttävät tekoälyä kuulostaakseen perheenjäseniltäsi. Tällä tavalla he toivovat saavansa sinut siirtämään rahaa itselleen.

tiistai 14. maaliskuuta 2023 teksti M. Østergaard

Tekoäly eli AI kehittyy nopeasti. 

ChatGPT:n kaltaiset chattirobotit, jotka pystyvät vastaamaan kaikenlaisiin kysymyksiin, ovat osa hakukoneita, ja Dall-E:n ja Midjourneyn kaltaiset palvelut osaavat tehdä kaikenlaisia kuvia – ilman valokuvaajaa tai taidemaalaria. 

Tekoälyä voidaan käyttää myös äänten jäljittelyyn – niin hyvässä kuin pahassakin. 

Jokin aika sitten tuli mahdolliseksi jäljitellä edesmenneiden perheenjäsenten ääniä lapsille ääneen lukemista varten, ja nyt huijarit yrittävät käyttää tätä ominaisuutta saadakseen sinulta rahaa.

> Lue myös: Hanki pääsy uuteen Bing-haku-chatbottiin

Lapsenlapsi tarvitsi rahaa

Tällainen on kanadalaisen 73-vuotiaan Ruth Cardin kokemus. Hän sai puhelun pojanpojaltaan Brandonilta, joka kertoi, että poliisi oli pidättänyt hänet ja tarvitsi nyt rahaa takuita varten, jotta hän pääsisi vapaaksi.

Ruth Card kiirehti lähipankkiinsa ja nosti 3 000 Kanadan dollaria (noin 2 050 euroa). 

Summa oli suurin päivässä nostettavissa oleva summa, joten hän siirtyi toiseen konttoriin nostamaan lisää rahaa. Toisessa pankissa eräs työntekijöistä veti kuitenkin vanhan naisen sivuun ja kertoi, että eräs toinen pankin asiakas oli saanut samantapaisen puhelun. 

Mies, jonka kanssa Ruth Card oli keskustellut, ei todennäköisesti ollut hänen lapsenlapsensa, vaan robotti, jonka ääni kuulosti tekoälyn ansiosta samalta.

"Se oli todella uskottavaa. Olimme aivan varmoja, että keskustelimme Brandonin kanssa", Ruth Card kertoi Washington Postille, joka kirjoitti tapahtuneesta jutun.

Muutaman virkkeen mittainen näyte riittää

Tekoälyn viimeaikaisten edistysaskeleiden ansiosta tietokoneet on nyt paljon helpompi saada matkimaan puheääniä. 

Tietokone tarvitsee vain muutaman lauseen ääninäytteen äänen kopioimiseen. Ääninäyte voidaan ottaa esimerkiksi YouTube-videosta tai muusta sosiaalisen median videosta, joka on vapaasti saatavilla verkossa.

Yhdysvalloissa yritettiin huijata vuonna 2022 yli 36 000 ihmistä tekeytymällä uhrien ystäviksi tai perheenjäseniksi.

> Katso myös, miten samanlaista tekniikkaa käyttävät huijarit hyödynsivät Elon Muskin kasvoja ja käyttivät toista ääntä saadakseen ihmiset investoimaan Bitcoineihin

Tekniikka on helposti saatavilla verkossa

Puheääntä jäljittelevä tekoäly on helposti saatavilla verkossa. Tietokoneet analysoivat, mikä tekee äänestä erityisen, ja tekevät sitten hakuja suuressa äänitietokannassa löytääkseen vastaavan äänen.

Huijauksiin käytetään ElevenLabsin kaltaisia palveluita. ElevenLabsia kritisoitiin aiemmin esimerkiksi siitä, että se laittoi Harry Potter -näyttelijä Emma Watsonin kopion lausumaan lainauksen Adolf Hitlerin Mein Kampf -kirjasta.

> Katso myös, miten voit herättää vanhat valokuvat eloon tekoälyn avulla

Alla on ElevenLabsin esittelyvideo, jolla näyttelijä Leonardo DiCaprion ääni korvataan muiden kuuluisien äänien erilaisilla tietokonejäljitelmillä.

Äänihuijareita on vaikea napata

Koska tämäntyyppiset petokset tapahtuvat yleensä puhelimitse, viranomaisten on vaikea saada tekijöitä kiinni. He voivat sijaita missä päin maailmaa tahansa, ja voivat jopa saada tilanteen näyttämään siltä, että puhelu tulee tuntemastasi puhelinnumerosta. 

Kannattaa siis olla erityisen valppaana, jos ystäväsi tai perheenjäsenesi pyytää sinulta suurta rahasummaa puhelimitse. 

Mieti, onko taustatarina todentuntuinen. Yritä soittaa tai kirjoittaa henkilölle, jonka kanssa puhut. Voit tehdä sen asettamalla puhelun pitoon tai pyytämällä henkilöä soittamaan takaisin. 

Älä myöskään koskaan osta muille lahjakortteja. Tämä on huijareiden tyypillinen temppu, sillä lahjakortteja on vaikeampi jäljittää kuin pankkisiirtoja. 

> Lue myös, miten tekoäly paljasti totuuden The Beatlesistä

Ehkä sinua kiinnostaa...