Umělá inteligence (AI) se ve velkém používá k tvorbě falešných explicitních fotografií a videí. Během chvilky automaticky vzniknou falešné akty, které bylo dříve nutné vytvářet za pomoci grafických editorů a potřebného dílčího talentu. Ty následně slouží jak k šikanování, tak vydírání (tzv. sextortionu). Před tímto nebezpečím v kyberprostoru varoval Americký Federální úřad pro vyšetřování (FBI). Potkat může každého. Nejen celebrity, ale i úspěšné podnikatele či běžné občany.
V případě sextortionu (sex – sexuální a extortion – vydírání) se obvykle vyděrači (tzv. scammeři) snaží získat peníze nebo jiné výhody od oběti tím, že hrozí zveřejněním kompromitujícího, avšak zfalšovaného materiálu. FBI upozorňuje na zvlášť znepokojující aspekt této hrozby – scammeři často využívají nevinné fotografie a videa, které lidé sdílejí na svých profilech na sociálních sítích. S pomocí deepfake technologie pak prostřednictvím umělé inteligence využijí obličej oběti k vygenerování pornografického materiálu.
Oběti hlásí, že jejich neškodné příspěvky na sociálních sítích (fotky, videa atd.) zločinci přebírají a upravují pomocí AI generátorů obsahu. Nejde o nový typ útoků, jen dříve se k tomu využívaly programy pro (profesionální) úpravu fotografií, jako je Photoshop. Nyní však zločinci nepotřebují k transformaci žádné grafické dovednosti ani zkušenosti, případně hodiny práce nutné k ruční úpravě. Nově jim stačí pár fotek a AI.
Všeobecná a snadná dostupnost AI byla spuštěna v listopadu 2022, kdy se objevil ChatGPT, který v tomto ohledu pro útoky představoval revoluci.
FBI dostává stále více podnětů od obětí, jejichž fotografie nebo videa byly explicitně upraveny. Tyto materiály jsou poté veřejně šířeny sociálními sítěmi nebo pornografickými webovými stránkami za účelem obtěžování a vydírání obětí. „Pokrok v technologiích s generativní tvorbou obsahu a snadná dostupnost osobních fotografií on-line poskytují pro zločince, kteří hledají a zaměřují své oběti, novou příležitost,“ uvádí Petr Kocmich, Global Cyber Security Delivery Manager společnosti Soitron.
Vyděrači nejčastěji od obětí požadují peníze a hrozí, že budou fotografie a videa sdílet s členy rodiny a přáteli na sociálních sítích, pokud oběť nezaplatí. Alternativně je vydírají tím, že od obětí požadují skutečné sexuální snímky či videa. Tento nový trend deepfake podvodů se stále více rozšiřuje, a to nejen v oblasti sextortionu, ale také například při podvodech spojených s virtuálními hovory.
Před těmito vyděračskými technikami není zcela v bezpečí nikdo, pokud všechny své obrázky z internetu neodstraní. Ani poté však nemusí být v úplném bezpečí, protože jej někdo může tajně fotografovat nebo natáčet ve skutečném životě a poté za účelem sextortionu nebo jiného podvodu zneužít pořízené materiály. Vzhledem k tomu, že se deepfake technologie stává stále pokročilejší a dostupnější, je nezbytné, aby vlády a legislativní orgány přijaly k ochraně občanů odpovídající opatření. V některých jurisdikcích již existují zákony, které vytváření falešných obrazů bez souhlasu zobrazené osoby trestají. Například Velká Británie plánuje v rámci připravovaného zákona o on-line bezpečnosti přijmout proti šíření takovéhoto materiálu opatření.
„Stanete-li se obětí sextortionu, doporučujeme zachovat chladnou hlavu. Rozhodně nikomu nic neplaťte, protože to odstranění explicitního materiálu z internetu nezaručí. Naopak kontaktujte Policii ČR. Jako prevenci doporučujeme dodržovat na sociálních sítích standardní bezpečnostní kroky, jako je odmítání žádostí o přátelství od cizích lidí a využívání všech dostupných nastavení ochrany osobních údajů,“ radí Petr Kocmich.
První nahé deepfake fotografie a videa vytvořené prostřednictvím AI se na internetu začaly šířit v roce 2017, kdy uživatelé na fórech, jako je například Reddit, testovali možnosti umělé inteligence k tvorbě sexuálně explicitního obsahu ženských celebrit. Ačkoliv existují pokusy o zastavení šíření takového obsahu, on-line nástroje a webové stránky pro vytváření deepfake nahých fotek jsou zatím snadno dostupné každému.
We are in the process of finalizing. If you want to be redirected to our old version of web site, please click here.