Pojavila se nova vrsta alata za video i audio manipulaciju, pomoću koje je realne snimke javnih ličnosti moguće preblikovati tako da bukvalno kažu bilo šta. Zbog toga ljudi uskoro, bukvalno, neće moći da veruju svojim očima i ušima a ovo je i budućnost lažnih vesti.

Softver je razvijen na Univerzitetu Stenford i u stanju je da manipuliše video-snimcima javnih ličnosti kako bi omogućio drugoj osobi da izgovara reči u realnom vremenu, objavio je Gardijan.

"Fejs2Fejs" snima izraz lica drugog lica dok razgovaraju u veb kameru, a zatim ih direktno prebacuju na lice osobe u originalnom video-zapisu. Istraživački tim demonstrirao je svoju tehnologiju lutkama video snimaka Džordža Buša, Vladimira Putina i Donalda Trampa.

Istraživački tim na Univerzitetu u Alabami u Birmingemu radio je na glasu, dok je kanadski startup Lirebrd razvio slične mogućnosti.

Ove tehnologije još nisu dovedene do savršenstva. Izrazi lica na snimcima ponekad deluju pomalo neprirodno, a glasovi zvuče robotizovano.

Međutim, uskoro će nove tehnologije moći vrlo verno da rekonstruišu zvuk ili izgled osobe, do te mere da ljudi neće moći da uoče razliku. S obzirom na eroziju medija i sve više oglašavanja na društvenim medijima, takvih snimaka će biti sve više.

Da bi se otkrila prevara ljudi treba da gledaju i na senke i osvetljenja iza ljudi koji govore na snimku, kao i proporcije elemenata u kadru, sinhronizaciju audio-zapisa.

Ovakvi snimci mogu da budu i vrlo opasni, jer bi mogli da posluže kao okidači za političke i diplomatske katastrofe. Recimo da Tramp objavi rat Severnoj Koreji.

"Ako neko gleda snimak Trampa, na kojem izgleda kao Tramp i govori kao Tramp, on će misliti da je to Tramp", objašnjavaju stručnjaci za Gardijan.

(Kurir.rs/Blic,D.K.)

Foto Printscreen Youtube

POGLEDAJTE BONUS VIDEO:

KURIR VESTI Zemlja propada, Srbija će pod Vučićem završiti u ambisu!