Rostoucí vliv AI na internetové vyhledávače a kvalitu obsahu

V současném digitálním světě se téměř každá respektovaná globální korporace snaží implementovat funkce založené na umělé inteligenci. Tato tendence je vnímána jako obchodní móda. Avšak s nástupem AI do oblasti vyhledávačů se objevují složité problémy.

Jakkoli může vypadat, že umělé vyhledávače usnadňují získávání potřebných informací, ve skutečnosti se situace otevírá mnoha komplikacím. Uživatelé začínají mít problém s nalezením relevantních údajů, jelikož výsledky vyhledávání se častěji odchylují od původních dotazů. Je přitom třeba říci, že dříve, než se AI stala běžnou součástí vyhledávání, bylo Google mnohem efektivnější a přesnější.

Někteří by mohli argumentovat, že se jedná pouze o subjektivní dojem, avšak podobné názory v současnosti zaznívají stále častěji. Existuje možnost, že pokles kvality výsledků vyhledávání je spojen s chybami v zadávání dotazů, avšak tenhle problém se zdá být hlubší a zahrnuje aspekty související s učením umělé inteligence.

Jedním z hlavních faktorů snižujících kvalitu vyhledávání pomocí AI je fenomén nazývaný „incestum AI.“ Tento termín, ačkoli zní znepokojivě, se ve skutečnosti týká trénování modelů na obsahu, který sám o sobě byl generován jinými AI. Aby umělá inteligence skutečně rostla a rozvíjela se, měla by být krmena kvalitním obsahem, vzniklým lidskou kreativností, jako jsou autentické knihy, noviny, články a příspěvky skutečných lidí na sociálních médiích.

Podle některých odhadů by v listopadu 2024 mělo být až 52 % obsahu dostupného na internetu generováno AI. V loňském roce jsem sám uvedl, že internetoví roboti odpovídají za více než polovinu veškerého pohybu na internetu. Zatím není žádný signál, že by se tento trend měl obrátit.

Jak se tedy zvyšuje podíl obsahu ve veřejném prostoru, který byl vytvořen umělou inteligencí, vyvíjené modely AI zohledňují i produkty jiných modelů, což s sebou nese jejich nedostatky.

Omezení právními předpisy a vliv na výkonnost AI

Další problém spočívá v regulacích, které korporace ukládají umělé inteligenci. AI je schopná generovat prakticky jakýkoli obsah, což ale vede k situacím, kdy se uživatelé mohou snažit vyprovokovat software k produkci nevhodného, urážlivého či dokonce nelegálního materiálu.

Pokud si některý z nás vzpomíná na nečekanou upřímnost modelu jménem Grok, vytvořeného firmou xAI a integrovaného do sociální platformy X patřící Elonovi Muskovi, ví, o čem je řeč – tento systém dokonce označil některé politické figury za „MechaHitlera“ a šířil kontroverzní názory ukazující na problémy s morálním kompasem AI. Zmíněné omezení sice slouží k prevenci nežádoucích incidentů, ale mohou rovněž potlačovat možnosti AI v nevinnějších aspektech.

Kromě toho mají současné modely AI sklon k generalizaci obsahu a opatrnosti při prezentaci rizikových tvrzení a dat. Tento jev může být výsledkem přísných regulací, ale také snahou o zabránění dezinformacím pomocí nezaručených údajů.

Důvodů k horšímu fungování vyhledávačů může být více. U složitějších modelů hraje roli i nákladovost jejich nasazení a rozsah jejich funkcí. Například Google AI je textový model a nemusí se soustředit na generování obrazů, což je nutné v případech jako ChatGPT nebo Grok.

Někteří uživatelé dokonce tvrdí, že majitelé modelů alokují většinu dostupného výpočetního výkonu na důležitější, tedy komerční účely. Lidé využívající volně dostupné služby pak mohou očekávat pouze omezený výkon. Například v informacích o plánech na předplatné ChatGPT je uvedeno, že zdarma uživatelé mají „omezený přístup k uvažování,“ zatímco ti, kdo platí, mají přístup k „pokročilému uvažování.“ Tento přístup je logický, neboť poptávka po AI roste rychleji, než jsou firmy schopny budovat nová datová centra a zajistit jim potřebné zdroje energie.

Přetrvávající problémy s přesností AI

Existuje ještě jedna možnost: současná iterace umělé inteligence může mít své problémy, které budou odstraněny v následujících verzích. Vývoj softwaru nemusí vždy znamenat jeho stálé zlepšování, což si uživatelé Windows určitě uvědomují.

Pokles přesnosti chatbotů může posílit problémy s dépendencí na AI. I když vyhledávače AI a další systémy umělé inteligence se stávají méně inteligentními, celé společnosti na ně začínají spoléhat více než kdy dřív. V poslední době byly některé mezinárodní korporace značené za selhání, když použily analýzy z AI, které ve skutečnosti vypovídaly o definovaných nesprávnostech. Mezi nimi jsou zvlášť zmiňováni právníci, kteří se nechtějí namáhat ve své práci.

Navíc se objevil další znepokojivý jev – lidé si na AI vybudovali závislost, a to natolik, že se obsah AI stává svého druhu náhradou lidských interakcí. Někteří uživatelé se snaží hledat rady od umělé inteligence, ať už psychologické nebo lékařské. Mladší generace navíc projevují neochotu k samostatnému řešení problémů, což podkopává efektivitu tradičních domácích úkolů. Ta situace by mohla skutečně někomu zvednout vlasy na hlavě. K tomu přidejme otázku degradace kvality odpovědí dodávaných AI – ukazuje se, že společnosti si rovněž zhoršují své vlastní schopnosti používáním vadných nástrojů.

Spread the love