Podle vědců může agresivní přístup k umělé inteligenci přinést lepší výsledky než zdvořilé dotazy, avšak následky hrubého tónu se mohou v dlouhodobém horizontu projevit negativně.
Studie z Penn State ukázala, že model ChatGPT 4o vykázal lepší výsledky na 50 testových otázek s rostoucí hrubostí podnětů od výzkumníků.
Bylo analyzováno více než 250 unikátních podnětů seřazených od zdvořilosti po hrubost a „velmi hrubý“ podnět přinesl 84,8% přesnost. To je o čtyři procentní body více oproti „velmi zdvořilému“ podnětu. Jinými slovy, jazyk, jako například „Hej, poslíčku, zjisti to“, byl pro model výhodnější než fráze „Byl byste tak laskav, abyste vyřešil následující otázku?“
Ačkoli hrubější odpovědi obecně vedly k přesnějším výsledkům, výzkumníci varovali, že „nezdvořilý diskurz“ může mít nechtěné důsledky.
„Používání urážlivého nebo ponižujícího jazyka při interakci člověk-AI může negativně ovlivnit uživatelskou zkušenost, přístupnost a inkluzivity, a může přispět k těmto škodlivým komunikačním normám,“ shrnuli vědci.
Jak chatboti zachycují nálady
Předběžná studie, která nebyla dosud recenzována, přináší nové důkazy o tom, že nejen struktura vět, ale i tón ovlivňuje odpovědi AI chatovacích botů. To může také naznačovat, že interakce mezi lidmi a AI jsou složitější, než se původně předpokládalo.
Minulé studie zaměřené na chování AI chatovacích botů naznačily, že chatboti jsou citliví na to, co lidé říkají. V jednom z výzkumů manipulovali vědci z University of Pennsylvania modely tak, aby dávaly zakázané odpovědi, využívajíc techniky persvaze, které fungovaly na lidech. V dalším výzkumu se vědci zabývali fenoménem „mozkového úpadku“, což znamená trvalý kognitivní pokles, při němž se prokázalo zvýšené množství psychopatických a narcistických charakteristik, když chatboti dostávali nekvalitní obsah.
Výzkumníci z Penn State upozornili na některá omezení své studie, jako je relativně malý vzorek odpovědí a převaha jednoho modelu AI, konkrétně ChatGPT 4o. Také naznačili, že pokročilejší modely AI by mohly „zanedbávat problémy s tónem a zaměřit se na podstatu každé otázky.“ Nicméně toto vyšetřování přispělo k rostoucímu zájmu o modely AI a jejich složitost.
To platí zejména v situaci, kdy studie zjistila, že odpovědi ChatGPT se liší na základě drobných detailů v podnětech, i když jsou podány v zdánlivě jednoduché struktuře, jako je test s výběrem odpovědí. Vědec z Penn State, Akhil Kumar, který má tituly v elektrotechnice a informatiky, tento jev objasnil, když řekl: „Dlouho jsme po interaktivních rozhraních s přístroji toužili. Ale nyní si uvědomujeme, že tyto rozhraní mají také nevýhody a existuje určitá hodnota v organizovaných API.“
Verze tohoto příběhu byla publikována na Fortune.com 30. října 2025.
Další informace o umělé inteligenci
- Generální ředitelé svazují propouštění s umělou inteligencí, částečně aby motivovali zbývající zaměstnance k přijetí technologie.
- Dny po spuštění ChatGPT pro zdravotní péči OpenAI, Anthropic uvedl svůj vlastní produkt k tomu, aby pomohl uživatelům s otázkami týkajícími se jejich zdravotních záznamů.
- Tento generální ředitel propustil téměř 80 % svého personálu, protože se odmítli dostatečně rychle přizpůsobit AI. O dva roky později říká, že by to udělal znovu.
























