„Bako, NISAM JA na telefonu!“ – Kloniranje glasova u službi prevara i iznuda

Fascinantna mogućnost AI tehnologije leži u tome što može "skinuti“ vaš glas u potpunosti do tačke da ni sami ne možete da verujete da ste to zaista vi.

284
bako-nisam-ja-na-telefonu-kloniranje-glasova-u-sluzbi-prevara-i-iznuda
- Sponzor članka -hikvision srbija

Prevare su uvek postojale i bile atraktivan način da se dođe do novca. Savremena sofisticirana tehnologija zahteva sofisticirane prevarante, one koji su se prilagodili i razumeli način na koji mogu da je zloupotrebe.

Mi, ako živimo u dubokom uverenju da su ovakve prevare kilometrima daleko i da to neće doći do nas, onda to znači da se mi nismo prilagodili i da smo pogodan plen za atak.

Glasovna veštačka inteligencija lažira vaš glas i može pozvati prijatelje, baku i deku, sve one bliske ljude koji su slabi na vas, a ranjivi i neprilagođeni na nove funkcije i domete tehnologije nove generacije. To izgleda ovako:  Prevarant zove vašu baku, predstavlja se kao vi i traži joj novac za kauciju ili advokate.

Cilj da prevaranti preko AI Vojsera zvuče kao vi i da vaša porodica pomisli da ste u nevolji kako bi iz ovih stopa poslala novac samo da vi budete dobro.  Verovali ili ne, ljudi masovno u svetu nasedaju na to i gube hiljade dolara.

Prevare su uzele maha u SAD-u, ali su rasprostranjene u čitavom svetu.  Kako se prevare u vezi sa lažnim predstavljanjem povećavaju… tehnologija lošim glumcima čini lakšim i jeftinijim da oponašaju glasove, ubeđujući ljude, često starije, da su njihovi voljeni u nevolji. U 2022. prevare sa kloniranjem glasova bile su drugi najpopularniji reket u Americi, sa preko 36.000 izveštaja da su ljudi prevareni od strane onih koji se pretvaraju da su prijatelji i porodica.

Iako prevare dolaze u mnogim oblicima, one u suštini funkcionišu na isti način: prevarant se predstavlja kao neko kome se veruje — dete, ljubavnik ili prijatelj — i ubeđuje žrtvu da im pošalje novac jer je u nevolji. Naravno fascinantna mogućnost AI tehnologije leži u tome što može „skinuti“ vaš glas u potpunosti do tačke da ni sami ne možete da verujete da ste to zaista vi.

Ako postoje snimci vašeg govora na društvenim mrežama, olakšavate posao kriminalcu, dajući mu sve neophodne elemente za pokretanje krivičnog dela.

Rizici su brojni, jer se osoba služi vašim identitetom i tehnološki je „verifikovala da ste to vi“. Vi ste žrtva ali u mnogim slučajevima možete ispasti i krivac jer tehnologija koja omogućava preuzimanje identiteta, dovodi upravo VAŠ u pitanje. Možete postati sredstvo, kao u slučaju sa bakom, a možete postati i krivac ako je neko izvršio krivična dela dokazujući veštačkom inteligencijom da ste to vi. U tom slučaju Kafkin proces može da počne!

AI čini prevaru još efikasnijom

Postoji strah da će AI alati postati efikasniji i dostupniji, da će još više ljudi nasedati na prevaru u narednim mesecima i godinama i da će to postati svakodnevni trend koji će zaobići samo one tehnološki nerazvijene civilizacije.

Glasovna prevara zahteva određeno planiranje, a odlučni počinilac treba da pronađe audio primerak glasa.  Audio uzorci, na primer, mogu da se lociraju na mreži preko popularnih sajtova kao što su TikTok i Jutjub, dok se brojevi telefona takođe mogu naći na raznim veb stranicama, jer uvek postoji curenje podataka.

Neki pozivaju da proizvođači AI tehnologije koja klonira glasove budu odgovorni za njihovu zloupotrebu. Ali pre nego što se to dogodi ili nađe novo konstruktivno rešenje, očigledno je da će mnogi drugi nasesti i izgubiti novac preko ove podle prevare.

5/5 - (2 votes)
IZVORSecurity Boulevard
Prethodni članakPlanirate putovanje? TOP 10 najčudnijih zakona inostranih zemalja koje treba da znate
Sledeći članakFejsbuk nezakonito obrađivao lične podatke korisnika skoro 10 godina