V posledních dnech jste pravděpodobně narazili na videa, která ukazují tygra, který odnáší spícího člověka, nebo leoparda, který se objevil v Lucknow, a další takové případy v Pune. Tato videa, která se objevila na vašich zprávách nebo na sociálních médiích, jsou však pravděpodobně falešná. Vaše sociální média byla přebrána umělou inteligencí. Algoritmy formují obsah, který vidíte.
V současnosti existuje mnoho videí o leopardech, tygrech či dokonce medvědech a psech, která byla vytvořena za pomocí AI. Co bychom tedy měli udělat, abychom se nenechali oklamat? Během posledních šesti měsíců došlo k obrovskému pokroku ve vývoji AI generátorů videa, což jsou aplikace, pomocí kterých lze snadno vytvářet videa. Například aplikace jako Soora jsou nyní široce dostupné a výsledkem je nárůst množství obsahu vyprodukovaného AI.
Tento článek se zabývá obsahem na webových stránkách sociálních médií. Před nahráním jakéhokoliv obsahu se od vás požaduje souhlas, protože dané webové stránky používají cookies a další technologie. Před přijetím se můžete seznámit s cookies a zásadami ochrany osobních údajů na sociálních mediálních stránkách. Chcete-li tento text zobrazit, klikněte na ‚Přijmout a pokračovat‘.
Mnohá videa vypadají naprosto realisticky a očekává se, že počet takovýchto videí dále poroste. To je způsobeno tím, že AI se poučuje ze svých chyb a je zároveň školena na obrovských množstvích dat. To znamená, že její výkonnost se zvyšuje v rychlém tempu.
Ale jak tedy rozpoznat videa vytvořená pomocí AI? Zde je několik věcí, které byste měli mít na paměti:
Jak poznat videa AI
- Pixelační kvalita videa: Kvalita obrazu videa může naznačovat, že se jedná o AI video. S nejnovějšími telefony dokáže i základní model natáčet video v 4K rozlišení, a to i za šera. Pokud je kvalita videa špatná, je třeba se ptát, proč tomu tak je.
- Fiktivní CCTV záznam: Někdy se AI videa snaží maskovat svou kvalitu tím, že vypadají jako CCTV záběry. Mnoho virálních videí je prezentováno jako CCTV záznamy, často s nejasně uvedenými daty a časy. Kvalita zvuku je obvykle také špatná, což je dalším indikátorem, že video nemusí být pravé.
- Neobvyklé barvy a tvar: Pokud videa zobrazují postavy s dokonalou, umělou pletí, velmi geometrickými rysy nebo divnými pohyby vlasů a oblečení, mohou to být známky falešného videa. Emocionální výrazy nebo pohyby očí se často jeví jako umělé, neboť AI mnohdy nedokáže zachytit jemnosti lidského výrazu.
- Chybějící detaily: AI videa často obsahují divné detaily, které si při sledování nevšimneme. Například video, které ukazuje králíky skákající na trampolíně, obsahovalo ve svém pozadí chybějící králíky, ačkoli to může být velmi těžké zaznamenat.
- Kratší klipy: Dalším znakem AI videí jsou velmi krátké klipy. Tato videa trvají obvykle několik sekund, což je typické pro obsahy, které se nalézají na platformách jako Instagram. Dlouhé filmy vyžadují investice do produkce, zatímco zdarma verze obvykle nabízí jen pár sekund.
- Vodotisk: Pokud video bylo vytvořeno pomocí aplikace OpenAI Soora, na obrazovce se často objeví vodotisk. Mnoho jednotlivců, kteří šíří videa, se pokouší vodotisk skrýt pomocí softwaru pro úpravu videa, což může vést k rozmazaným místům ve videu.
- Porušená fyzika: AI sice umí mnohé napodobit, ale má problémy s fyzikálními zákony. Například fotografie bílého leoparda z Pune prokázala nesoulad v proporcích a stínech, což potvrdil také lesní úřad.
- Je to skutečně možné? Zvažte také, zda dané video může vůbec existovat. Například myšlenka, že by se tiger pokoušel vylít pivo člověku, vzbuzuje pochybnosti. V reakci na virální video pohybující se tygra bylo v Nagpurské oblasti vydáno právní varování pro individuální obsahuji videa.
Dále je důležité si uvědomit, že AI usnadnila vytváření deepfake videí. Tyto technologie se postupně zlepšují a videa vypadají stále realističtěji, což znamená, že je důležité být obezřetný. Je nezbytné si osvojit určité návyky, podobně jako jsme nyní opatrní při příjmu informací prostřednictvím WhatsApp, abychom se ochránili před dezinformacemi a falešnými obsahy, které by mohly mít negativní důsledky.
Tento článek byl publikován pro BBC Collectives Newsroom.
























