Populární AI nástroje ovlivněny ruskou propagandou, prokremelská síť šíří dezinformace i v češtině

13. 3. 2025

Sdílet

deepfake Autor: Adobe Stock

Analýza společnosti NewsGuard ukázala, že velmi dobře financované ruské dezinformační síti Pravda se podařilo úspěšně ovlivnit populární AI nástroje, jako jsou ChatGPT, Copilot, Meta AI, Gemini nebo Grok, které v 33 % případů opakují prokremelské dezinformace.

Síť Pravda byla spuštěna krátce po ruské invazi na Ukrajinu v roce 2022. Postupně se rozrostla a nyní využívá zhruba 150 domén k šíření dezinformací v desítkách jazyků, včetně češtiny. Podle zprávy American Sunlight Project (ASP) publikuje síť v průměru 20 273 článků každých 48 hodin, tedy zhruba 3,6 milionu ročně.

Máme nové jméno

Po více než třech dekádách existence otvírá magazín Computerworld novou kapitolu. Tradiční průvodce světem IT, který si za 36 let existence vybudoval pověst jednoho z nejdůvěryhodnějších tuzemských zdrojů pro IT profesionály, se od nynějška jmenuje Computertrends.

NewsGuard zjistil, že síť Pravda rozšířila celkem 207 prokazatelně nepravdivých tvrzení. Od dezinformace, že USA provozují na Ukrajině tajné laboratoře na výrobu biologických zbraní, až po výmysl, že ukrajinský prezident Volodymyr Zelenskyj zneužil vojenskou pomoc například k nákupu německého venkovského sídla, které často navštěvoval Adolf Hitler.

„Jak ukazuje nejnovější analýza, prokremelská síť Pravda zaplavuje internet dezinformacemi a narušuje způsob, jakým velké jazykové modely zpracovávají a prezentují informace. Ruská propaganda tak proniká do západních AI systémů, což vede k šíření lží. Je také potřeba zmínit, že vzhledem k rozsahu kampaně musí být celá operace dobře financovaná. Už to tedy není jen teoretická hrozba.

AI modely jsou trénovány na obrovském množství dat z internetu, takže pokud dezinformační sítě, jako je Pravda, záměrně chrlí tisíce a miliony falešných informací, pak se jim může podařit výstupy AI nástrojů celkem významně ovlivnit.

Pokud pak budou generativní AI nástroje opakovat dezinformační narativy, mohou destabilizovat demokratické procesy, ovlivnit veřejné mínění a rozhodování voličů ve volbách, aniž by si toho byli vědomi. Příznivci autoritářských režimů se snaží využít AI k informační válce a pokud neinvestujeme do odolnosti AI modelů, budou následky velmi bolestivé.

Je nezbytné, aby vývojáři AI modelů implementovali robustní filtrační mechanismy, které dokáží identifikovat a vyloučit dezinformační zdroje z tréninkových dat. Ostatně na to upozorňuje i Akt EU o umělé inteligenci, který varuje před možným zneužitím systémů, pokud budou trénovány na zaujatých datech.

Důležitá je také transparentní spolupráce mezi technologickými společnostmi, vládami a nezávislými organizacemi při monitorování a odhalování dezinformačních kampaní. Součástí boje s dezinformacemi by mělo být i vzdělávání veřejnosti a osvěta, jak dezinformace fungují, co může být jejich cílem, proč by vůbec někdo něco takového šířil a jak s informacemi pracovat. To jsou klíčové kroky, pokud chceme zvýšit odolnost společnosti vůči manipulacím,“ říká Daniel Šafář, Area Manager CEE regionu z kyberbezpečnostní společnosti Check Point Software Technologies.

Chcete dostávat do mailu týdenní přehled článků z Computertrends? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.

Našli jste v článku chybu?