Zavrieť reklamu

Deepfake – technológia, ktorá umožňuje nahrádzať tváre ľudí na fotkách a vo videách tvárí niekoho iného, ​​sa za posledné roky vyvinula do podoby, v ktorej sa už rozdiel medzi pravým záznamom a falošnými dátami hľadá čoraz komplikovanejšie. Na stránkach s pornografickým obsahom sa deepfake napríklad používa na vytváranie šteklivých videí s podobami známych hereckých hviezd. To všetko samozrejme prebieha bez súhlasu napadnutých osobností a vďaka narastajúcej sofistikovanosti technológie využívajúcej strojové učenie sa šíria obavy z ďalších možných foriem jej zneužitia. Hrozba, že by deepfake mohol úplne zdiskreditovať digitálne záznamy ako dôkazy pri súdnych sporoch je reálna a visí nad justičným sektorom ako Damoklov meč. Dobrá správa teraz prichádza od spoločnosti Truepic, kde vymysleli jednoduchý spôsob, ako overiť pravosť záznamov.

Novú technológiu jej tvorcovia nazvali Foresight a namiesto dodatočnej analýzy videí a zisťovania, či ide o deepfake, využíva na zabezpečenie pravosti nadviazanie jednotlivých záznamov na hardvér, na ktorom vznikli. Foresight označuje všetky záznamy pri ich vzniku špeciálnou sadou zašifrovaných metadát. Dáta sú uložené v bežných formátoch, v ukážke pre stránku Android Police spoločnosť predviedla, že takto zabezpečený obrázok je možné uložiť vo formáte JPEG. Nehrozí teda žiadny strach z nekompatibilných dátových formátov.

Technológia ale trpí riadkom drobných mušiek. Tou najväčšou je asi fakt, že súbory zatiaľ nezaznamenávajú zmeny, ktoré na nich boli vykonané. Riešením je zapojenie viacerých spoločností, ktoré by túto metódu zabezpečenia podporovali. O úspechu technológie tak bude rozhodovať hlavne zapojenie najväčších výrobcov fotoaparátov a mobilných zariadení na čele so Samsungom a Applem. Bojíte sa, že by niekto mohol zneužiť vašu podobu? Podeľte sa s nami o svoj názor v diskusii pod článkom.

Dnes najčítanejšie

.