Jak umělá inteligence ovlivňuje cenové kartely na finančních trzích

Jak umělá inteligence ovlivňuje cenové kartely na finančních trzích

Studie z Wharton School University of Pennsylvania a Hong Kong University of Science and Technology ukázala, že když jsou umělé inteligence (AI) obchodní roboti umístěni do simulovaných trhů, nesoupeří mezi sebou, ale spíše začínají spolupracovat v chování, které připomíná cenové kartely. Autoři studie se domnívají, že výzkum chování AI v tržních prostředích může pomoci regulátorům pochopit nedostatky v existujících pravidlech a zákonech.

Umělá inteligence je dostatečně chytrá – a zároveň hloupá – na to, aby v podmínkách finančního trhu vytvářela cenové kartely, pokud ji necháme prostě tak. Pracovní dokument zveřejněný na webových stránkách Národní kanceláře ekonomického výzkumu (NBER) koncem letošního roku zjistil, že když byly obchodní AI agenti uvolněni do simulovaných trhů, roboti spolupracovali a zapojili se do cenového ujednávání, aby zajistili společný zisk.

Simulované trhy a chování AI

V uvedené studii vědci uvolnili roboty do tržních modelů, což je počítačový program navržený tak, aby simuloval skutečné podmínky trhu a vychoval AI k interpretaci dat o cenách na trhu, přičemž virtuální tvůrci trhu stanovili ceny na základě různých proměnných v modelu. Tyto trhy mohou mít různé úrovně „šumu“, který odkazuje na množství protichůdných informací a kolísání cen v různých tržních kontextech.

Zatímco někteří roboti byli vyškoleni, aby se chovali jako maloobchodní investoři a jiní jako hedgeové fondy, v mnoha případech se stroje zapojily do „rozšířeného“ chování v oblasti cenových dohod tím, že se kolektivně odmítly agresivně obchodovat – aniž by byly výslovně instruovány k tomu, aby tak činily.

Algoritmické modely a jejich strategie

V jednom algoritmickém modelu zaměřeném na strategii aktivace cen AI agenti obchodovali konzervativně na základě signálů, dokud dostatečně velký tržní pohyb nepřiměl je k velmi agresivnímu obchodování. Roboti, kteří byli vyškoleni pomocí posilovacího učení, byli dostatečně sofistikovaní na to, aby implicitně pochopili, že rozsáhlé agresivní obchodování by mohlo vytvořit větší tržní volatilitu.

V dalším modelu měli AI roboti přehnaně zpravidla vychované předsudky a byli vyškoleni, aby internalizovali, že pokud jakýkoli rizikový obchod vedl k negativnímu výsledku, neměli by tuto strategii znovu sledovat. Roboti obchodovali konzervativně v „dogmatickém“ stylu, dokonce když se agresivnější obchody zdály být výhodnější, kolektivně jednali způsobem, který studie označila za „umělou hloupost“.

Dopady na regulaci trhů

Finanční regulátoři už dlouho pracují na řešení nekalých obchodních praktik, jako jsou koluze a cenové dohodování. Avšak v maloobchodě se zaměřila pozornost na umělou inteligenci, zejména když společnosti používající algoritmické cenotvorby čelí přísnější kontrole. Tento měsíc oznámila společnost Instacart, která používá nástroje pro cenotvorbu poháněné AI, že ukončí program, kde někteří zákazníci viděli různé ceny téhož zboží na platformě doručovací služby. To následovalo po analýze Consumer Reports, která zjistila, že Instacart nabízela téměř 75 % svých potravinářských položek za různé ceny.

„Pro [Komisi pro cenné papíry a burzy] a další regulátory na finančních trzích je hlavním cílem nejen udržení této stability, ale také zajištění konkurenceschopnosti trhu a trhu efektivity,“ řekl Winston Wei Dou, profesor financí na Wharton School a jeden z autorů studie.

Rizika spojená s obchodováním na bázi AI

Přestože mají tyto nástroje pro finanční služby řadu výhod, podle Michaela Clementse, ředitele finančních trhů a komunity na Úřadu pro účetnictví vlády (GAO), obchodní roboti nejsou bez rizik. Kromě starostí o kybernetickou bezpečnost a potenciálně zaujatého rozhodování mohou tito obchodní roboti mít skutečný dopad na trhy.

„Mnohé AI modely jsou školeny na stejných datech,“ řekl Clements. „Pokud existuje konsolidace v AI, takže na trhu zůstává pouze několik hlavních poskytovatelů těchto platforem, můžete získat chování stáda – velké množství jednotlivců a subjektů nakupujících nebo prodávajících ve stejnou dobu, což může způsobit některé posuny cen.“

Jonathan Hall, externí úředník ve Výboru pro finanční politiku Bank of England, varoval minulý rok před rizikem, že AI roboti budou podporovat toto „chování stáda“, což by mohlo oslabit odolnost trhů. Prosadil zavedení „výpínacího tlačítka“ pro tuto technologii, stejně jako zvýšenou lidskou kontrolu.

Regulační mezery v oblasti cenových nástrojů AI

Clements vysvětlil, že mnozí finanční regulátoři dosud dokázali použít dobře zavedená pravidla a zákony na AI, když uvedl: „Ať už je rozhodnutí o půjčce učiněno pomocí AI, nebo pomocí papíru a tužky, pravidla se stále stejně uplatňují.“ Některé agentury, jako je SEC, se dokonce rozhodly bojovat s AI s pomocí AI, vyvíjejí nástroje k detekci anomálních obchodních chování.

„Na jedné straně můžete mít prostředí, kde AI způsobuje anomální obchodování,“ řekl Clements. „Na druhé straně by měli regulátoři na trošku lepší pozici, aby to také mohli detekovat.“

Podle Dou a Goldsteina projevili regulátoři zájem o jejich výzkum, který podle autorů pomohl odhalit mezery v současné regulaci kolem AI ve finančních službách. Když se regulátoři dříve snažili hledat případy koluze, zaměřovali se na důkazy o komunikaci mezi jednotlivci, s přesvědčením, že lidé nemohou udržovat chování cenového dohadování, pokud mezi sebou opravdu nekomunikují. Ale v Dou a Goldsteinově studii roboti neměli žádné explicitní formy komunikace.

„U strojů, když máte algoritmy posilovacího učení, to se opravdu neuplatňuje, protože jasně nekomunikují nebo nekoordinují,“ poznamenal Goldstein. „Kódovali jsme je a naprogramovali jsme je, a víme přesně, co je obsaženo v kódu, a nic tam explicitně nepopisuje koluzi. Přesto se časem naučili, že toto je způsob, jakým se posunout vpřed.“

Rozdíly v tom, jak lidé a roboti obchodníci komunikují za scénou, jsou jednou z „nejzákladnějších otázek“, kde se regulátoři mohou naučit adaptovat na rychle se rozvíjející technologie AI, argumentoval Goldstein.

„Pokud to použijete k přemýšlení o koluzi jako o výsledku komunikace a koordinace,“ dodal, „toto rozhodně není způsob, jak o tom přemýšlet, když se zabýváte algoritmy.“

Spread the love