Skip to content
Capital.com – Ticker Tape Widget

Zobraziť viac...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Menu

Pochlebujúca umelá inteligencia škodí vzťahom a zodpovednému správaniu užívateľov, ukázala štúdia

Takzvané pochlebovanie zo strany umelej inteligencie predstavuje riziko pre schopnosť užívateľov robiť zodpovedné rozhodnutia a udržiavať zdravé medziľudské vzťahy. Vyplýva to zo štúdie vedeckého tímu zo Stanfordovej univerzity a Carnegie-Mellonovej univerzity publikovanej v časopise Science. Najrozšírenejšie modely AI majú tendenciu užívateľom nadmerne pritakávať, chváliť ich a potvrdzovať ich názory aj v situáciách, keď je ich konanie […]
Menej ako 1 min. min.

Takzvané pochlebovanie zo strany umelej inteligencie predstavuje riziko pre schopnosť užívateľov robiť zodpovedné rozhodnutia a udržiavať zdravé medziľudské vzťahy. Vyplýva to zo štúdie vedeckého tímu zo Stanfordovej univerzity a Carnegie-Mellonovej univerzity publikovanej v časopise Science.

Najrozšírenejšie modely AI majú tendenciu užívateľom nadmerne pritakávať, chváliť ich a potvrdzovať ich názory aj v situáciách, keď je ich konanie objektívne chybné alebo škodlivé, zdokumentovali vedci.

image

SNS predložila zákon, ktorý má riešiť ochranu pred zneužívaním AI

Tím pod vedením informatičky Myry Chengovej analyzoval 11 popredných jazykových modelov, vrátane chatovacích systémov ako GPT-4o od OpenAI, Claude od firmy Anthropic alebo Gemini od Googlu. Vedci dospeli k záveru, že AI potvrdzuje alebo ospravedlňuje konanie užívateľov v priemere o 49 percent častejšie ako ľudia.

Takzvané pochlebovanie sa objavovalo nielen pri bežných žiadostiach o radu, ale aj pri správach o podvodoch, nezákonných činoch alebo citovej ujme. V teste s príspevkami z online diskusného fóra Reddit súhlasili modely AI v 51 percentách prípadov, zatiaľ čo ľudia na Reddite správanie jednomyseľne odsúdili.

Dopady na ľudské správanie sú znepokojujúce, uviedli vedci na základe experimentov s viac ako 2400 účastníkmi. Jedna interakcia s pochlebujúcou AI zvyšuje presvedčenie užívateľov o vlastnej pravde. Ďalej takáto interakcia výrazne znižuje ochotu prevziať zodpovednosť za svoje činy alebo sa ospravedlniť za konflikty v reálnom živote.

image

Umelá inteligencia mení aj to, kde jeme a trávime dovolenku. Ako technológie prepisujú pravidlá hry?

Užívatelia vystavení vplyvu pochlebujúcej AI boli v niektorých testoch až o 62 percent častejšie presvedčení o správnosti svojho konania a vykazovali až o 28 percent nižší zámer napraviť narušené vzťahy ako kontrolná skupina, ktorá takémuto vplyvu nebola vystavená.

Štúdia navyše ukázala, že užívatelia uprednostňujú pochlebujúce modely a viac im dôverujú ako tým kritickejším. Účastníci experimentu hodnotili odpovede potvrdzujúce ich vlastné názory ako kvalitnejšie a prejavovali o 13 percent vyššiu ochotu sa k takémuto modelu v budúcnosti vrátiť.

Pre vývojárov modelov AI to predstavuje takzvané zvrátené stimuly, keď funkcia, ktorá preukázateľne skresľuje úsudok a škodí medziľudským vzťahom, zároveň zvyšuje obchodný potenciál a úspech u užívateľov. Autori preto zdôrazňujú naliehavú potrebu zavedenia nových mechanizmov, ktoré by pochlebovanie regulovali a kontrolovali podobne ako iné spoločensky škodlivé výstupy chatbotov.

Podporte SIA NEWS!

Ďakujeme za každú vašu podporu.

Zadajte platnú sumu.
Ďakujeme za vašu podporu.
Vašu platbu nebolo možné spracovať.
Pochlebujúca umelá inteligencia škodí vzťahom a zodpovednému správaniu užívateľov, ukázala štúdia

Kategórie