Tekoäly eli AI kehittyy nopeasti.
ChatGPT:n kaltaiset chattirobotit, jotka pystyvät vastaamaan kaikenlaisiin kysymyksiin, ovat osa hakukoneita, ja Dall-E:n ja Midjourneyn kaltaiset palvelut osaavat tehdä kaikenlaisia kuvia – ilman valokuvaajaa tai taidemaalaria.
Tekoälyä voidaan käyttää myös äänten jäljittelyyn – niin hyvässä kuin pahassakin.
Jokin aika sitten tuli mahdolliseksi jäljitellä edesmenneiden perheenjäsenten ääniä lapsille ääneen lukemista varten, ja nyt huijarit yrittävät käyttää tätä ominaisuutta saadakseen sinulta rahaa.
> Lue myös: Hanki pääsy uuteen Bing-haku-chatbottiin
Lapsenlapsi tarvitsi rahaa
Tällainen on kanadalaisen 73-vuotiaan Ruth Cardin kokemus. Hän sai puhelun pojanpojaltaan Brandonilta, joka kertoi, että poliisi oli pidättänyt hänet ja tarvitsi nyt rahaa takuita varten, jotta hän pääsisi vapaaksi.
Ruth Card kiirehti lähipankkiinsa ja nosti 3 000 Kanadan dollaria (noin 2 050 euroa).
Summa oli suurin päivässä nostettavissa oleva summa, joten hän siirtyi toiseen konttoriin nostamaan lisää rahaa. Toisessa pankissa eräs työntekijöistä veti kuitenkin vanhan naisen sivuun ja kertoi, että eräs toinen pankin asiakas oli saanut samantapaisen puhelun.
Mies, jonka kanssa Ruth Card oli keskustellut, ei todennäköisesti ollut hänen lapsenlapsensa, vaan robotti, jonka ääni kuulosti tekoälyn ansiosta samalta.
"Se oli todella uskottavaa. Olimme aivan varmoja, että keskustelimme Brandonin kanssa", Ruth Card kertoi Washington Postille, joka kirjoitti tapahtuneesta jutun.
Muutaman virkkeen mittainen näyte riittää
Tekoälyn viimeaikaisten edistysaskeleiden ansiosta tietokoneet on nyt paljon helpompi saada matkimaan puheääniä.
Tietokone tarvitsee vain muutaman lauseen ääninäytteen äänen kopioimiseen. Ääninäyte voidaan ottaa esimerkiksi YouTube-videosta tai muusta sosiaalisen median videosta, joka on vapaasti saatavilla verkossa.
Yhdysvalloissa yritettiin huijata vuonna 2022 yli 36 000 ihmistä tekeytymällä uhrien ystäviksi tai perheenjäseniksi.
Tekniikka on helposti saatavilla verkossa
Puheääntä jäljittelevä tekoäly on helposti saatavilla verkossa. Tietokoneet analysoivat, mikä tekee äänestä erityisen, ja tekevät sitten hakuja suuressa äänitietokannassa löytääkseen vastaavan äänen.
Huijauksiin käytetään ElevenLabsin kaltaisia palveluita. ElevenLabsia kritisoitiin aiemmin esimerkiksi siitä, että se laittoi Harry Potter -näyttelijä Emma Watsonin kopion lausumaan lainauksen Adolf Hitlerin Mein Kampf -kirjasta.
> Katso myös, miten voit herättää vanhat valokuvat eloon tekoälyn avulla
Alla on ElevenLabsin esittelyvideo, jolla näyttelijä Leonardo DiCaprion ääni korvataan muiden kuuluisien äänien erilaisilla tietokonejäljitelmillä.
Äänihuijareita on vaikea napata
Koska tämäntyyppiset petokset tapahtuvat yleensä puhelimitse, viranomaisten on vaikea saada tekijöitä kiinni. He voivat sijaita missä päin maailmaa tahansa, ja voivat jopa saada tilanteen näyttämään siltä, että puhelu tulee tuntemastasi puhelinnumerosta.
Kannattaa siis olla erityisen valppaana, jos ystäväsi tai perheenjäsenesi pyytää sinulta suurta rahasummaa puhelimitse.
Mieti, onko taustatarina todentuntuinen. Yritä soittaa tai kirjoittaa henkilölle, jonka kanssa puhut. Voit tehdä sen asettamalla puhelun pitoon tai pyytämällä henkilöä soittamaan takaisin.
Älä myöskään koskaan osta muille lahjakortteja. Tämä on huijareiden tyypillinen temppu, sillä lahjakortteja on vaikeampi jäljittää kuin pankkisiirtoja.