»Mislil sem, da je to moj sin, ki kliče na pomoč!«
Taktika je vedno enaka: goljuf se predstavi kot prijatelj, sorodnik ali ljubimec v stiski in žrtev prosi za določeno vsoto denarja. Sedaj je to še lažje izvesti, saj sedaj obstaja umetna inteligenca, ki zna do potankosti posnemati glas, barvo in ton vsakogar. Dovolj je le nekaj sekund zvoka in prevara je že pripravljena.
21.000 dolarjev izpuhtelo v zrak!
Zato so starši Benjamina Perkina na račun domnevnega odvetnika nakazali 21.000 dolarjev. Ta jih je poklical v stiski, češ da je njihov sin v prometni nesreči ubil ameriškega diplomata, kot pojasnjuje Washington Post. Čuden primer, res … A prepričal jih je Benjaminov glas na drugi strani telefona, ki je prosil za pomoč. Zato so hitro izpraznili svoje bančne račune, da bi pokrili sodne stroške, ki jih je po telefonu narekoval odvetnik. Da je šlo le za prevaro, sta ugotovila, ko ju je nekaj ur pozneje poklical sin in želel vedeti, kako jima gre. Vendar je bilo prepozno, “denarja ni več” in tudi ni bilo več načina, da bi ga kakorkoli dobili nazaj. Perkinsova sta le zadnji žrtvi vse bolj razširjenih prevar. Večina prevaranih potem policistom pove: “Mislili smo, da so to naši bližnji, ki prosijo za pomoč, to je bil njihov glas!«
Telefonske prevare z umetno inteligenco
Po podatkih Zvezne komisije za trgovino je bilo leta 2022 v Združenih državah Amerike več kot 36.000 prijav ljudi, ki jih je prevaral nekdo, ki se je izdajal za prijatelja ali družinskega člana. Prevara najbolje deluje po telefonu in dejansko je bilo 5100 primerov prevar prek telefonskih klicev, kriminalcem pa je skupaj uspelo izsiliti 11 milijonov dolarjev. Zdaj je z umetno inteligenco, ki lahko zvesto posnema glasove ljudi, pri čemer uporabi le nekajsekundni zvočni vzorec, še lažje prevarati žrtve. Zahvaljujoč lahko dostopnim in poceni spletnim orodjem je mogoče glas nekoga rekonstruirati tako natančno, da ponaredka ne prepoznajo niti sorodniki. V ospredju je vedno strah, stari trik, zaradi katerega ljudje zmanjšajo svojo varnost in delujejo impulzivno. Klic na pomoč je pravzaprav popolna zvijača, ki sproži tesnobo in utiša morebitne dvome.
Kot se pogosto dogaja, nove tehnologije vse odvračajo, strokovnjaki pa so za časnik Washington Post pojasnili, da zvezni regulatorji, organi pregona in sodišča niso usposobljeni za omejevanje tovrstnih goljufij. Težko je izslediti klice in sredstva prevarantov, sodnih precedensov je malo, zato niti ni jasno, ali odgovornost nosijo tudi podjetja, ki dajo na voljo določena orodja. Will Maxson, pomočnik direktorja v oddelku FTC za tržno prakso, je pojasnil, da je sledenje glasovnim goljufom “še posebej težko”, saj lahko uporabljajo telefon, ki ima sedež kjer koli na svetu, zaradi česar je skoraj nemogoče celo ugotoviti, katera agencija je pristojna za določen primer.
Novi programi za pretvorbo besedila v govor
“To je grozljivo,” je dejal Hany Farid, profesor digitalne forenzike na kalifornijski univerzi Berkeley. “To je nekakšna popolna nevihta z vsemi potrebnimi sestavinami, da nastane kaos.” Umetna inteligenca lahko rekonstruira barvo, ton, glas, kadenco, “Programska oprema za ustvarjanje glasov z umetno inteligenco analizira, kaj dela glas osebe, vključno s starostjo, spolom in naglasom, ter išče po obsežni zbirki podatkov glasov, da bi našla podobne glasove in predvidela vzorce,” je dejal Farid. “Pred dvema letoma, celo pred enim letom, so za kloniranje glasu osebe potrebovali veliko zvoka,” je dejal Farid. “Zdaj … če imate stran na Facebooku … ali če ste posneli TikTok in je vaš glas tam 30 sekund, lahko nepridipravi zelo enostavno klonirajo vaš glas.”
So krivi ponudniki?
Na trgu je že na voljo več orodij za sintezo govora z umetno inteligenco, med njimi tudi podjetje ElevenLabs, ustanovljeno leta 2022, ki ima tako brezplačno kot plačljivo različico (ta lahko znaša od 5 do 330 dolarjev na mesec). Podjetje je bilo že deležno kritik. Januarja je namreč na portalu 4Chan nek uporabnik objavil posnetek Emme Watson, ki bere odlomek iz knjige Mein Kampf. Nato glas Bena Shapira, ki izreka rasistične pripombe o Alexandrii Ocasio-Cortez, in Ricka Sancheza iz animirane serije Rick & Morty, ki pravi: “Morty, svojo ženo bom pretepel. Prebil bom svojo jebeno ženo Morty. Morty, pretepel jo bom do smrti.” Justin Roiland, ki upodablja Sancheza, se je pred kratkim pojavil na sodišču na predhodnem zaslišanju zaradi kaznivega dejanja nasilja v družini. Posnetki so bili različni, od neškodljivih do nasilnih, transfobnih, homofobnih in rasističnih, v lažnem mešalniku pa so se znašli celo liki iz risank in videoiger. Podjetje ElevenLabs se je odzvalo na Twitterju in pojasnilo, da raziskuje dodatne varnostne ukrepe, “med katerimi so zahteva po informacijah, plačilu ali popolni identifikaciji z osebnim dokumentom”.