Obzor 6/2024

Zpět

Na deep fake nejsme připraveni

Josef Šlerka

Falešná videa (a tedy i audia) vytvořená umělou inteligencí se stala běžnou součástí internetu a sociálních sítí. S letošním supervolebním rokem jich navíc masivně přibude. Má vůbec „uživatelstvo“ šanci poznat dílo, které vytvořil stroj?

Dostupné technologie
Problematice zneužívání umělé inteligence se věnuje série článků publikovaných na webu investigace.cz. Autoři tam ukazují, jak funguje generování obsahu, který napodobuje nějaký styl – a upozorňují na to, jak jednoduché je dnes falešné video a audio vyrobit. Dá se to zvládnout doma v kuchyni, zadarmo nebo s minimem peněz. V podstatě každý může deep fake (realistická úprava pomocí umělé inteligence) stvořit a začít tak manipulovat s okolím.

Falešný Klaus
Velmi neblahou zkušenost udělali sami tvůrci webu, když své varování před dezinformacemi doplnili názorným příkladem – falešným videem s Václavem Klausem, na kterém „mluví“ v rozporu se svými všeobecně známými názory. Je velmi varovné, že až třetina lidí falešnému „záznamu“ uvěřila i přesto, že je výrazně označen jako deep fake – a přesto, že tvůrci u tohoto modelového příkladu zcela jasně upozornili, kterých detailů je dobré si všímat, aby člověk odhalil, že se jedná o podvod. Ostatně, totéž je řečeno i ve zvukové stopě. Pozornost ale byla evidentně stržena úplně jiným směrem…

Stačí pár sekund
Citlivost k rozpoznání faktu, že je záznam falešný, snižuje stopáž, případně formát obrazu. Pokud trvá pár sekund, což je délka, na kterou jsme zvyklí ze svých mobilních telefonů, klesá i naše šance rozpoznat, že jde o podvrh.

Jak odhalit deep fake?
Odhalit falešné video je podle expertů na nová média kvůli zlepšujícím se technologiím čím dál složitější. Nejslabším místem u drtivé většiny videí dnes bývá pouze dokonalá synchronizace úst a zvuků.
Důležité je však pečlivě poslouchat hlas. Většina z nás má různé nádechy, výdechy, vady řeči, vydává určitý zvukový „smog“. Bohužel i toto ale začínají systémy velmi dobře imitovat.
A tak je nejdůležitější především kontext celé věci: je nutné přemýšlet nad tím, jestli obsah, který slyšíme, je uvěřitelný a pravděpodobný. Přece jenom, slyšet Václava Klause bojovat proti globálnímu oteplování není moc pravděpodobné! Do budoucna to tedy zřejmě bude to poslední, o co se budeme moci nějak zásadněji opřít.
To vše ale bohužel platí jen pro obsah na sociálních sítích. S falešnými videi či audiozáznamy se nejspíš budeme setkávat mnohem častěji i jinde.

(redakčně upraveno, kráceno)
Zdroj: dvojka.rozhlas.cz

Zpět