Špičkové deepfake obrázky nepůjde časem rozpoznat. Nebudeme moct spoléhat na vlastní oči, říká vědec

Zpráva BIS za rok 2023 hodnotí současné hrozby různých typů obsahu generovaného umělou inteligencí. Z produktů AI představují podle BIS aktuálně největší nebezpečí texty, které téměř není možné rozeznat od výsledku lidské práce. Druhým nejvíc rizikovým je uměle vytvořený hlas. „V budoucnu propracované deepfake obrázky nerozlišíme,“ říká v rozhovoru pro Radiožurnál Jiří Matas z Katedry kybernetiky Fakulty elektrotechnické ČVUT v Praze.

Rozhovor Praha Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Umělá inteligence

Rok 2023 byl pro vývoj umělé inteligence přelomový (ilustrační foto) | Zdroj: Profimedia

Co bylo přelomovou technologií, která způsobila, že se deepfakes mohou rozšiřovat i do běžného informačního prostoru?
To se liší u textů, obrázků a videí. Specializuji se na obrazy a videa. Tady v podstatě vznikla metoda, které se říká stabilní fúze, která s různými transformátory umožnila generovat hlasem řízený obraz.

Přehrát

00:00 / 00:00

Poslechněte si rozhovor s profesorem Janem Matasem o deepfakes

Funguje to tak, že slovně popíšete, co chcete, aby bylo vygenerováno, a ono se to vygeneruje. Vznikly metody, které reprezentují text způsobem, jenž umožňuje najít obraz sémanticky odpovídající tomu, co jste řekli.

Řízení toho, jak to bude přesně vypadat, není zatím příliš dobré, takže nemůžeme nikdy vědět, co přesně z toho vypadne. Ale děsivé, nebo extrémně impresivní, je to, že výsledné obrazy vypadají jako živé a blíží se fotografii. Šíření je pak už jednoduché, stejné jako u jiných obrázků a videí.

Jaké jsou teď metody, abychom mohli rozlišit něco, co bylo vytvořené AI? Lze to zase jenom pomocí AI?
Zatím asi ne. Jsou známé problémy typu, že vlasy nemají dobrý odlesk nebo špatný počet prstů. Ale postupem času si myslím, že je skoro jisté, že umělá inteligence dosáhne stavu, kdy to rozlišitelné nebude.

25:14

Lidé, kteří si osvojí AI jako nástroj, budou profesně úspěšnější. Rozhodnutí je na každém z nás, říká vědec

Číst článek

Je to skoro jisté?
Ty metody se navzájem učí. Na jedné straně máte detektor odlišnosti normální fotky a takto vygenerovaného obsahu. Stroj se je učí rozpoznávat, a když zjistí, že je rozpozná, tak si stroj, který je generoval, řekne: „Aha, on je rozpoznal, tak to musím něco opravit, abych snížil schopnost rozpoznávače odlišovat.“ Je to boj o to, kdo přijde s lepším způsobem, eskalace povede k tomu, že rozpoznávání bude velice těžké.

Vodotisk AI

Zabýváte se tím, že učíte umělou inteligenci, aby dokázala rozpoznat, že něco vytvořila jiná umělá inteligence. Na základě čeho se to pozná?
Problém má mnoho úrovní, na té úplně nejobecnější se ukáže, že to možná nepůjde a bude potřeba mít jiné prostředky. Například bude nezákonné vytvořit umělou inteligencí obrázek, který v sobě nemá nějakou značku, vodotisk.

Na druhou stranu se v současné době ještě pořád dá poznat, pokud je obrázek vygenerovaný nějakým konkrétním generátorem. Když máte jeden konkrétní generátor, tak to totiž zanechává artefakty, které to umožňují rozpoznat.

5:32

Kriminalita přechází do digitálního prostředí. Musíme bojovat ohněm proti ohni, říká šéf NÚKIB

Číst článek

Takový podpis?
Není to podpis, protože to není vidět. Má specifické zvláštnosti signálů, které nejsou na první pohled vidět, ale dají se najít. Dá se předpokládat, že většina lidí, kteří budou používat tyto nástroje, tak vezmou ten nejrozšířenější. Na to, aby se tím vystrašila učitelka ve škole, to stačit bude. Ale ne na někoho, kdo se tím zabývá.

Pokud ale budeme mít proti sobě stranu, která má velké prostředky a stovky výzkumníků, tak ta vám to ztíží. A myslím, že pak to možná poznat nepůjde. Běžné věci poznávat půjdou, ale špičkové ne. Budeme vyžadovat vodotisk, nebo bude platit, že nemůžu věřit svým očím a budu muset sdělení ještě dále ověřovat.

Pokud mi to třeba bude ukazovat, jak nějaký známý politik dělá něco, co se nám nezdá, tak budeme muset zkusit ověřit, jestli o tom už někdo někde napsal. Už nebude platit, že když něco vidím na obrázku, tak to platí. Bude nutné vždy hledat zdroj.

A jestli vám dobře rozumím, tak nástroje, jak by bylo možné rozpoznat velmi dobře udělaný obrázek umělou inteligencí, zatím nejsou?
Možná, že zatím jsou, ale je to neustálý souboj mezi zlepšujícími se generátory a zlepšujícími se detektory. Je to podobné jako rakety a protiraketová obrana, které se vyvíjí pomocí eskalace.

Věra Štechrová, epo Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme