Takzvané pochlebovanie zo strany umelej inteligencie predstavuje riziko pre schopnosť užívateľov robiť zodpovedné rozhodnutia a udržiavať zdravé medziľudské vzťahy. Vyplýva to zo štúdie vedeckého tímu zo Stanfordovej univerzity a Carnegie-Mellonovej univerzity publikovanej v časopise Science.
Najrozšírenejšie modely AI majú tendenciu užívateľom nadmerne pritakávať, chváliť ich a potvrdzovať ich názory aj v situáciách, keď je ich konanie objektívne chybné alebo škodlivé, zdokumentovali vedci.
Tím pod vedením informatičky Myry Chengovej analyzoval 11 popredných jazykových modelov, vrátane chatovacích systémov ako GPT-4o od OpenAI, Claude od firmy Anthropic alebo Gemini od Googlu. Vedci dospeli k záveru, že AI potvrdzuje alebo ospravedlňuje konanie užívateľov v priemere o 49 percent častejšie ako ľudia.
Takzvané pochlebovanie sa objavovalo nielen pri bežných žiadostiach o radu, ale aj pri správach o podvodoch, nezákonných činoch alebo citovej ujme. V teste s príspevkami z online diskusného fóra Reddit súhlasili modely AI v 51 percentách prípadov, zatiaľ čo ľudia na Reddite správanie jednomyseľne odsúdili.
Dopady na ľudské správanie sú znepokojujúce, uviedli vedci na základe experimentov s viac ako 2400 účastníkmi. Jedna interakcia s pochlebujúcou AI zvyšuje presvedčenie užívateľov o vlastnej pravde. Ďalej takáto interakcia výrazne znižuje ochotu prevziať zodpovednosť za svoje činy alebo sa ospravedlniť za konflikty v reálnom živote.
Užívatelia vystavení vplyvu pochlebujúcej AI boli v niektorých testoch až o 62 percent častejšie presvedčení o správnosti svojho konania a vykazovali až o 28 percent nižší zámer napraviť narušené vzťahy ako kontrolná skupina, ktorá takémuto vplyvu nebola vystavená.
Štúdia navyše ukázala, že užívatelia uprednostňujú pochlebujúce modely a viac im dôverujú ako tým kritickejším. Účastníci experimentu hodnotili odpovede potvrdzujúce ich vlastné názory ako kvalitnejšie a prejavovali o 13 percent vyššiu ochotu sa k takémuto modelu v budúcnosti vrátiť.
Pre vývojárov modelov AI to predstavuje takzvané zvrátené stimuly, keď funkcia, ktorá preukázateľne skresľuje úsudok a škodí medziľudským vzťahom, zároveň zvyšuje obchodný potenciál a úspech u užívateľov. Autori preto zdôrazňujú naliehavú potrebu zavedenia nových mechanizmov, ktoré by pochlebovanie regulovali a kontrolovali podobne ako iné spoločensky škodlivé výstupy chatbotov.