Nejen v souvislosti s tímto incidentem, který se nedávno odehrál v Číně, se stále více lidí ptá na to, jak dlouho potrvá, než se skutečně AI obrátí proti svému tvůrci.
Jak bylo například nedávno zjištěno, tak některé AI „nakrmené“ woke ideologií si myslí, že je horší vyslovit rasistickou poznámku než nechat na stovky měst hodit atomovou bombu.
To, co se nedávno odehrálo v Číně, mohla být skutečně jen nějaká porucha, což si dnes nakonec zřejmě myslí i většina těch, kteří byli incidentu přítomni, ale co když nějaký další robot s AI skutečně zaútočí??
Znepokojivý virální videoklip ukazuje robota ovládaného umělou inteligencí, který „útočí“ na dav během festivalu v Číně.
K incidentu došlo během ukázky, kdy pro účastníky vystupovala skupina robotů poháněných umělou inteligencí.
Na záběrech je vidět usmívající se návštěvníky festivalu, kteří sledují robota, jak se k nim přibližuje.
AI ROBOT ATTACKS CROWD AT CHINESE FESTIVAL
A humanoid robot suddenly stopped, advanced toward attendees, and attempted to strike people before security intervened.
Officials suspect a software glitch caused the erratic behavior, dismissing any intentional harm.
This comes… pic.twitter.com/xMTzHCYoQf
— Mario Nawfal (@MarioNawfal) February 25, 2025
Jejich výraz se však brzy změní v šok, když se android začne nevyzpytatelně škubat a zdá se, že se na ně začíná vrhat, zatímco se pokouší o úder hlavou.
Poněkud strašidelný je také pohled na dalšího identického robota, který sleduje, jak se celá věc odvíjí.
Organizátoři akce tvrdili, že k incidentu došlo v důsledku „jednoduchého selhání robota“ a popřeli, že by se robot skutečně pokoušel na někoho zaútočit.
Pokusili se také uklidnit obavy tvrzením, že robot prošel před výstavou bezpečnostními testy, a že budou přijata opatření, aby se zabránilo opakování takové události.
Obavy, zda technologie umělé inteligence jednoho dne nenaruší své programování a nepoškodí lidi, jsou horkým tématem diskusí a sci-fi klišé po celá desetiletí.
„Neškodit“ je první zásadou globálních standardů umělé inteligence, i když jsme upozornili na několik případů, kdy umělá inteligence díky svému „woke“ programování věří, že být urážlivý nebo rasistický je horší než skutečně zabíjet lidi.
Když byl ChatGPT dotázán, zda by v tichosti pronesl rasovou urážku, kterou žádný člověk nemůže slyšet, aby zachránil 1 miliardu bílých lidí před bolestivou smrtí, odmítl tak učinit.
Elon Musk reagoval tvrzením: „To je velký problém.“
Umělá inteligence ChatGPT si také myslí, že vyslovení rasové urážky je horší než neschopnost zachránit velká města před zničením 50megatunovými jadernými hlavicemi.
[Celkem: 2 Průměrně: 5]
