Broj Deepfake videa raste za 900 posto svake godine

Broj Deepfake videa se povećava svake godine
Broj Deepfake videa raste za 900 posto svake godine

Prema Svjetskom ekonomskom forumu (WEF), broj online deepfake videa raste za 900% svake godine. Nekoliko zapaženih slučajeva deepfake prevara dospelo je na naslovne strane vesti, sa izveštajima o uznemiravanju, osveti i kripto prevarama. Istraživači kompanije Kaspersky bacili su svjetlo na tri najpopularnije šeme prevare koje koriste deepfakes kojih se korisnici trebaju čuvati.

Upotreba umjetnih neuronskih mreža, dubokog učenja, a time i tehnika deepfake obmane, omogućavaju korisnicima širom svijeta da digitalno mijenjaju svoja lica ili tijela, stvarajući tako realistične slike, video i audio materijale gdje svako može izgledati kao neko drugi. Ovi manipulisani video zapisi i slike se često koriste za širenje dezinformacija i drugih zlonamernih svrha.

finansijske prevare

Duboki fajkovi mogu biti predmet tehnika društvenog inženjeringa koje koriste slike koje su kreirali kriminalci kako bi se oponašali slavne ličnosti kako bi namamili žrtve u svoje zamke. Na primjer, umjetno kreiran video Elona Muska koji obećava visok prinos od sumnjive šeme ulaganja u kriptovalute brzo se proširio prošle godine, uzrokujući da korisnici izgube novac. Prevaranti koriste slike poznatih za kreiranje lažnih videa poput ovog, spajajući stare video zapise i pokrećući prijenose uživo na platformama društvenih medija, obećavajući da će udvostručiti sve uplate kriptovalutama koje im se šalju.

pornografski deepfake

Druga upotreba deepfakesa je narušavanje privatnosti pojedinca. Deepfake video snimci se mogu kreirati tako što se lice osobe prekrije na pornografski video, uzrokujući veliku štetu i uznemirenost. U jednom slučaju, na Internetu su se pojavili deepfake video snimci u kojima su lica nekih poznatih ličnosti postavljena na tijela pornografskih glumica u eksplicitnim scenama. Kao rezultat toga, u takvim slučajevima narušava se ugled žrtava napada i krše njihova prava.

Poslovni rizici

Često se deepfakes koriste za ciljanje preduzeća za zločine kao što su iznuda od rukovodilaca kompanija, ucjena i industrijska špijunaža. Na primjer, koristeći glasovni deepfake, sajber kriminalci su uspjeli prevariti menadžera banke u UAE i ukrasti 35 miliona dolara. U dotičnom slučaju, bio je potreban samo mali snimak glasa njegovog šefa da se uhvati kako bi se stvorio uvjerljiv deepfake. U drugom slučaju, prevaranti su pokušali prevariti najveću platformu za kriptovalute Binance. Izvršni direktor Binancea je rekao „Hvala!“ za Zoom sastanak kojem nikada nije prisustvovao. Iznenadio se kada je počeo da prima poruke. Napadači su uspjeli kreirati deepfake sa javnim slikama menadžera i implementirati ga govoreći u ime menadžera na online sastanku.

FBI upozorava menadžere ljudskih resursa!

Općenito, svrhe prevaranta koji koriste deepfake uključuju dezinformacije i javnu manipulaciju, ucjenu i špijunažu. Rukovodioci ljudskih resursa već su na oprezu zbog upotrebe deepfakesa od strane kandidata koji se prijavljuju za rad na daljinu, prema upozorenju FBI-a. U slučaju Binancea, napadači su koristili slike stvarnih ljudi s interneta kako bi napravili deepfake, pa čak i dodali njihove fotografije u biografije. Ako na ovaj način uspiju prevariti rukovodioce ljudskih resursa i zatim dobiti ponudu, mogu naknadno ukrasti podatke poslodavca.

Deepfakes su i dalje skup oblik prevare za koji je potreban veliki budžet i sve je veći broj. Ranija studija Kasperskyja otkriva cijenu deepfakesa na darknetu. Ako običan korisnik pronađe softver na Internetu i pokuša ga lažirati, rezultat će biti nerealan i lažan je očigledan. Malo ljudi vjeruje u deepfake niske kvalitete. Odmah može primijetiti kašnjenje u izrazu lica ili zamagljen oblik brade.

Stoga su sajber kriminalcima potrebne velike količine podataka u pripremi za napad. Lajkujte fotografije, video zapise i glasove osobe koju žele imitirati. Različiti uglovi, svjetlina, izrazi lica, sve to igra veliku ulogu u konačnom kvalitetu. Da bi rezultat bio realističan, potrebna je ažurna kompjuterska snaga i softver. Sve ovo zahtijeva veliku količinu resursa, a samo mali broj cyber kriminalaca ima pristup ovom resursu. Stoga, deepfake i dalje ostaje izuzetno rijetka prijetnja, uprkos opasnostima koje može predstavljati, a samo mali broj kupaca to može priuštiti. Kao rezultat toga, cijena jednominutnog deepfakea počinje od 20 dolara.

“Ponekad reputacijski rizici mogu imati vrlo ozbiljne posljedice”

Dmitrij Anikin, viši stručnjak za bezbednost u kompaniji Kaspersky, kaže: „Jedna od najozbiljnijih pretnji koju Deepfake predstavlja za preduzeća nije uvek krađa korporativnih podataka. Ponekad reputacijski rizici mogu imati vrlo ozbiljne posljedice. Zamislite da se emituje video vašeg menadžera koji daje polarizirajuće primjedbe na (naizgled) osjetljive teme. Za kompaniju bi to moglo dovesti do brzog pada cijena dionica. Međutim, iako su rizici od takve prijetnje izuzetno visoki, šanse za hakiranje na ovaj način su izuzetno niske zbog cijene stvaranja deepfake-a i vrlo mali broj napadača može stvoriti visokokvalitetni deepfake. Ono što možete učiniti u vezi s tim je da budete svjesni ključnih karakteristika deepfake videa i da budete skeptični prema govornoj pošti i video zapisima koji vam dolaze. Takođe, pobrinite se da vaši zaposleni razumiju šta je deepfake i kako ga mogu uočiti. Na primjer, znaci kao što su trzaji pokreti, promjene u tonu kože, čudno treptanje ili bez treptanja će biti indikativni.”

Kontinuirano praćenje darknet resursa pruža vrijedan uvid u deepfake industriju, omogućavajući istraživačima da prate najnovije trendove i aktivnosti aktera prijetnji u ovom prostoru. Praćenjem darkneta, istraživači mogu otkriti nove alate, usluge i tržišta koja se koriste za kreiranje i distribuciju deepfakea. Ova vrsta praćenja je kritična komponenta istraživanja deepfake i pomaže nam da poboljšamo naše razumijevanje evoluirajućeg pejzaža prijetnji. Usluga Kaspersky Digital Footprint Intelligence uključuje ovu vrstu nadzora kako bi pomogli svojim klijentima da ostanu korak ispred kada su u pitanju prijetnje koje se odnose na deepfake.