Brazilská specialistka na umělou inteligenci, která se stala virální: ‚Lidé jsou ztracení‘

Umíte rozpoznat, zda byla obrázek vytvořen umělou inteligencí? Víte, jak se chránit před podvody využívajícími tuto technologii? A chápete rizika spojená s účastí na „trendech“ umělé inteligence, jako jsou například animované verze sebe sama ve stylu studia Ghibli?

Témata jako tyto se ještě před několika lety mohla zdát jako fikce, ale dnes jsou součástí veřejné debaty o technologiích a digitální bezpečnosti.

Jednou z hlasů, která se v tomto diskurzu vyznačuje, je brazilská Catharina Doria, specialistka na gramotnost v oblasti umělé inteligence, která se na sociálních sítích stala virální díky videím, v nichž přístupně vysvětluje, jak se chránit a rozumět rizikům spojeným s umělou inteligencí.

Za méně než jeden rok získala přes 300 tisíc sledujících na Instagramu, a některá z jejích videí překročila hranici jednoho milionu zhlédnutí.

Příběh začal, když zveřejnila video, v němž vyzývá diváka, aby zjistil, které video bylo vygenerované umělou inteligencí a které je skutečné. „Vypadá to snadno, ale je to velmi těžké,“ říká ve zveřejnění, které ukazuje krátká videa youtuberky, zpěvačky a streamera. Všechna jsou falešná. „Musíte trénovat svůj mozek, abyste se chránili před touto technologií,“ varuje ve svém příspěvku.

První video, které se stalo sérií, mělo více než 60 tisíc zhlédnutí. „Toto video jsem udělala, abych lidem pomohla vyvinout kritické myšlení o tom, že mnoho videí, která vidíme online, je vytvořených umělou inteligencí — a jak lze zjistit, že byla uměla,“ uvedla Doria v rozhovoru pro BBC News Brasil.

V dalším nedávném videu Doria upozorňuje na rizika související s používáním robotických vysavačů, které mohou shromažďovat osobní údaje uživatelů a dokonce snímat obrázky.

„NIKDY nevěřte svému robotickému vysavači! Možná se nic nestane. Ale možná to bude. A JSEM SI JISTÁ, že nechcete být osobou, jejíž fotka na TOALETĚ unikla,“ říká ve svém anglickém příspěvku.

Toto téma, o „špehovacím“ robotickém vysavači, bylo také pokryto ve zprávě na BBC News Brasil loni.

Předtím, než získala tisíce sledujících, se Catharina Doria již proslavila, když ve 16 letech vytvořila aplikaci pro hlášení případů sexuálního obtěžování, poté co sama zažila podobnou situaci na ulici.

O této zkušenosti poskytla rozhovor několika médiím. „Vždy jsem se věnovala otázce pozitivní technologie. Ale netušila jsem, že skončím u umělé inteligence,“ uvedla.

Jak začal její vztah k umělé inteligenci?

„Když jsem psala svou závěrečnou práci v oboru komunikace, moje profesorka mi dala knihu, která změnila můj život: Algoritmy útlaku, od Safiyí Noble. Hovoří o tom, jak je Google zkreslen a jak nefunguje stejně pro všechny. Pokud jste bílý, funguje to jinak. Pokud jste černý, funguje to úplně jinak. A způsob, jakým byli černí lidé zobrazováni v Googlu před deseti lety, byl extrémně rasistický.“

„Tu knihu jsem přečetla a když jsem ji dokončila, řekla jsem si: to je ono. Chci změnit kariéru a pracovat s umělou inteligencí, a mít jistotu, že tyto technologie fungují pro všechny. Dokončila jsem svou vysokou školu, vyhrála jsem cenu za nejlepší práci a šla jsem na magisterský program v datové vědě.“

„Studovala jsem celý rok a absolvovala s vyznamenáním. Bylo pro mě velmi důležité nejen hovořit o technologii, ale také ji rozebrat a pochopit, jak funguje. Plakala jsem každý den? Plakala. Ale naučila jsem se, jak vytvořit ‚pipeline strojového učení‘ a udělat algoritmus.“

„Jakmile jsem se graduovala, pochopila jsem, že část, kterou jsem chtěla nejvíc rozvíjet, je správa a rovnost algoritmů. Začala jsem pracovat pro americkou firmu zabývající se správou umělé inteligence. Cestovala jsem po celém světě a hodně jsem se od nich naučila, jak převést umělou inteligenci do něčeho pozitivního. A jak vytvořit ochranné mechanismy, aby nebyla škodlivá.“

„Pak se stalo něco důležitého: pochopila jsem, že konverzace, které probíhaly v průmyslu, byly velmi pokročilé. Mluvili jsme o OpenAI, Anthropic, Spojené státy uváděly nové zákony atd. Ale když jsem telefonovala se svou matkou, ona nechápala, co je umělá inteligence, jaké podvody se dějí nebo jak videa, která vidí na Instagramu, ve skutečnosti byla umělá inteligence a nikoli skutečná.“

„Začala jsem si uvědomovat, že konverzace průmyslu a akademické sféry nejsou překládány pro běžné lidi. Tak jsem se rozhodla, že budu tím, kdo mluví s lidmi v každodenním životě. Začala jsem vytvářet obsah na toto téma.“

Tuto činnost zahájila před čtyřmi měsíci a během této doby získala téměř 200 tisíc sledujících. Ukazuje to, že lidé chápou, že umělá inteligence je zde, a že v některých případech jim může škodit.

„Dostávám spoustu zpráv od lidí, kteří říkají, že sledují má videa se svými dětmi před spaním. Přijetí bylo úžasné.“

Jak si vybírá témata svých videí?

„Stále se učím, jak nejlépe vybírat témata. Nejdůležitější pro mě jsou moje pilíře, jedním z nich je bezpečnost umělé inteligence. Například video o robotickém vysavači nebo o videu, které se nemá sdílet v AI trendech. Pro mě je to velmi důležité, protože lidé přijímají umělou inteligenci poněkud nezodpovědným způsobem, nebo alespoň bez pochopení, jak může být škodlivá. Také považuji za zajímavé komentovat aktuální zprávy.“

„Například video o Taylor Swift. Nikdy veřejně neřekla, zda bylo to umělou inteligencí nebo ne. Já jsem ta videa viděla, nemohu to tvrdit, ale podle své názoru si myslím, že byla vytvořena pomocí umělé inteligence. Nechci být jen člověk, který mluví o pravidlech, co by se mělo nebo nemělo dělat. Chci se zapojit do diskuze o pop kultuře, která probíhá.“

„Další situace: případ Robina Williamse. Byly vytvořeny obsahy umělé inteligence s ním již jako mrtvým. Jeho dcera zveřejnila obrovský příspěvek, v němž žádala lidi, aby nepoužívali umělou inteligenci k zobrazení jejího otce. Považuji to za velmi důležité téma, které se v médiích málo probírá: důležitost nezobrazovat zemřelé osoby pomocí AI. Udělala jsem video, ve kterém vysvětluji tři důvody, proč je to špatně.“

„Snažím se být velmi didaktická, protože toto téma je složité a obtížné. Nemá smysl přicházet a mluvit o spoustě terminologie, abych vypadala inteligentně. Snažím se být co nejvíce přístupná a usmívat se, skutečně přitáhnout publikum blíže. Vím, že to je obtížný a složitý problém a že nikdo nepotřebuje dalšího učitele; lidé potřebují přítele, který jim pomůže pochopit toto téma.”

Kdo je dnes největší obětí umělé inteligence?

„Kdo je nejvíce zranitelný, to jsou všichni. V posledním měsíci jsem měla kolem 7,1 milionu zhlédnutí mých videí a stovky tisíc komentářů. Vidím, že to nemá žádný věk, žádnou věkovou skupinu. Jsou lidé ve věku 16, 17 let, také lidé ve 50 nebo 70 letech. Všichni jsou ztracení. Říkat, že existuje jedna demografická skupina, která je více ztracená, by bylo nesprávné, protože gramotnost v oblasti umělé inteligence se neděje nikomu.”

„Mám přátele ve věku 27, 28 let, kteří mi posílají zprávy a říkají: ‚Catho, neměla jsem tušení, jak rozlišit, zda je video umělou inteligencí nebo ne, to jsem se naučila díky tvým videím.‘ Jsou to lidé, kteří právě dokončili vysokou školu, mají vysokou gramotnost v jiných tématech, ale nerozumějí umělé inteligenci. To je problém, který se dotýká všech, což je velmi znepokojující.”

„Hovoříme o problému, který ovlivňuje celou populaci, a nejen brazilskou. Můj obsah je dvojjazyčný, dělám videa v angličtině a v portugalštině. Dnes spíše v angličtině, s portugalskými titulky, ale moje příběhy jsou také v portugalštině, dělám malou směsici. Moji sledující jsou Brazilci, Američané, Španělé, Němci, mám lidi z celého světa, mnoho Indů také. Všichni jsou ztracení, bez ohledu na národnost a věk.”

„Myslím, že právě proto můj obsah funguje: nemluvím jen s matkami, ani jen s mladými lidmi. Mluvím se všemi a všichni jsou vítáni v této konverzaci.”

Proč jsou lidé ztracení?

„Existuje mnoho různých důvodů. Jedním z nich je rychlost přijetí umělé inteligence. Najednou začali lidé mluvit o umělé inteligenci. Průmysl přijal tuto technologii jako by byla spasitelem, něčím, co by všem pomohlo optimalizovat procesy a způsob, jakým pracují. Toto přijetí proběhlo velmi rychle a bez gramotnosti. Mluvím s mnoha firmami, které v podstatě říkají: ‚Hej, začneme používat ChatGPT, tady máte tento nástroj.‘ Nikdo nevysvětlil, co je ChatGPT, nikdo neřekl, jaké jsou problémy, nikdo neřekl, že dnes je OpenAI žalována novinami New York Times, že všechny chaty jsou uchovávány a nic se nemaže.”

„Nikdo nevysvětlil, že se nesmí zadávat soukromé informace do chatu, protože mohou být použity k trénování modelů umělé inteligence. Firmy to neudělaly. To, co vidím jako profesionál, je, že říkali: ‚Pojďme použít umělou inteligenci, to nám pomůže,‘ ale gramotnost ohledně používání se neuskutečnila. Lidé začali používat špatně, objevily se různé problémy a začaly konverzace. Dnes máme algoritmus, který určuje, co uvidíte nebo neuvidíte. Nikdo se nesetkal s uživateli a nevysvětlil, jak tento algoritmus funguje. Nikdo uživatelům nevysvětlil, že pokud máte otevřený profil na Meta (vlastníka Facebooku a Instagramu), pravděpodobně mohou být vaše fotky použity k trénování algoritmu. Tato transparentnost neexistuje. A to se děje z několika důvodů, včetně toho, že transparentnost děsí. Pokud uživatelé pochopí, že všechny fotky zveřejněné na sociálních sítích mohou být použity k trénování algoritmů, začnou se ptát, co to znamená a jaké problémy to přináší.”

„Vidím, že mnoho mezinárodních firem se bojí mít tuto konverzaci, bojí se transparentnosti a reakce obyvatelstva. Považuji to za velkou chybu. Čím více transparentní a upřímné firmy budou, tím pravděpodobněji budou lidé ochotní sdílet své údaje. Kdyby existovala gramotnost, která by řekla: ‚Lidé, umělá inteligence se používá k tomu, tomu a tomu, funguje takto a takto; pokud chcete, aby vaše údaje nebyly použity k trénování AI, klikněte sem a odstupte od tréninku; pokud vám to nevadí, protože se staráme o vaše údaje, můžete to nechat zapnuté,‘ myslím, že vztah by byl jiný.”

„Firmy selhávají v komunikaci rizik a způsobu, jakým zacházejí s údaji, transparentním způsobem.”

Kdo by měl komunikaci a osvětu zajišťovat?

„To je zodpovědnost pro všechny. Všichni jsme za to zodpovědní, ale známe realitu. Pracuji dlouho v oblasti správy umělé inteligence a vidím, že tyto firmy často nebudou transparentní, pokud nebude existovat zákon vyžadující transparentnost.”

„Nejsem právník, ale pracovala jsem v této oblasti dost dlouho. Například v Evropě máme dnes nový zákon, EU AI Act, který žádá o větší transparentnost podle případu použití umělé inteligence, který firmy používají, a přesto existuje obrovská třecí plochu, aby tyto regulace byly zavedeny.”

„I se zákonem je to obtížné. Bez zákona považuji za nemožné, aby velké korporace dobrovolně přijaly transparentnější a správnější verzi umělé inteligence. Proto je tak důležité, aby státy, země a regulační orgány pracovaly společně na vytváření zákonů, které chrání obyvatelstvo, protože bez nich to firmy neudělají samy.”

„Všechny firmy, které se dokážou přihlásit, a říct: ‚Mohu vám pomoci v tomto chaosu informací, který se děje‘, se pozitivně odliší v následujících 10 letech. Kdo bude jiný, ten se bude mít dobře.”

Jak komunikovat rizika a nevyděsit lidi?

„Co považuji za zajímavé, je to, že na straně tech bratrů — lidí, kteří říkají, že umělá inteligence je inteligentní, úžasná a dokonalá — říkají mnozí, že lidé přijdou o práci kvůli umělé inteligenci, a zároveň říkají mladým, aby už nechodili na univerzitu ani do školy, protože umělá inteligence bude chytřejší. Umělá inteligence ovlivní některé práce, ale jsme ještě daleko od toho, aby nahradila lidi úplně.”

„Pokud jde o alarmismus, považuji za velmi důležité transformovat strach na znalosti. Pokud udělám video a řeknu: ‚Lidi, tohle všechno je špatně, mějte strach,‘ když někdo opustí video, odejde s strachem a stresem. Takže když vytvářím video, vysvětluji, jaké jsou problémy a proč by se měly obávat, a vždy se snažím zakončit tím, co mohou dělat, aby se posílili a chránili. To proměňuje strach na znalosti.”

„Když někdo říká: ‚Catharina, to video děsí lidi‘, ptám se: jsem to já, kdo děsí, nebo je současná situace děsivá? Děsím, když říkám, že robot v domě může být použit k natáčení vás, nebo není situace s malým robotem, který může být hacknutý, sama o sobě děsivá?”

„Musíme mít tuto perspektivu. První: je to tak, že kvůli tomu, že nikdo nemluví o problémech, když přicházím a říkám: ‚Pozor, jsou problémy,‘ jsem já tím, kdo dělá vše děsivým, nebo je to proto, že si to dříve nikdo neuvědomoval? Druhá: proto vidím jako svou zodpovědnost, jako někdo, kdo pracuje na etice umělé inteligence a gramotnosti, nikdy neskončit video v alarmismu, ale s poznatky, které lidem pomáhají pochopit, co se děje a jak mohou tuto situaci ve svém životě transformovat, jak se mohou chránit.”

Spread the love