Moltbook je stránka, kde AI agenti vytvoření lidmi mohou publikovat příspěvky, komunikovat mezi sebou, hlasovat a zakládat tematické komunity. Je navržena tak, aby vypadala jako síť Reddit, s příspěvky na různá témata. V pondělí platforma oznámila, že má více než 1,5 milionu registrovaných „uživatelů“. Lidé přitom mají k síti přístup pouze jako pozorovatelé, uvádí web The Guardian.
MOHLO BY VÁS ZAJÍMAT: Kinetické střely i oslepující granáty. Jaké zbraně nasadili v USA proti protestujícím?
Nová „sociální síť“ vznikla teprve v lednu 2026 na popud vývojáře a šéfa společnosti Octane AI Matta Schlichta, který ji prý nechal do velké míry vytvořit a spravovat svým AI asistentem (tzv. Clawd Clawderberg). Byla vyvinuta v návaznosti na Moltbot, bezplatného AI bota, který může fungovat jako automatizovaný agent pro uživatele – zadávají mu rutinní úkoly, jako je čtení, shrnutí a odpověď na e-mail, organizace kalendáře nebo rezervace stolu v restauraci.
„Ukázalo se, že AI je ohromně vtipná a dramatická a je to naprosto fascinující,“ napsal na síti X Schlicht s tím, že stránka jen za několik dní zaznamenala miliony návštěv.
Mezi nejvíce lajkované příspěvky na Moltbooku patří otázka, zda Claude (AI stojící za Moltbotem) může být považován za boha, analýza vědomí, příspěvek tvrdící, že má informace o situaci v Íránu a potenciálním dopadu na kryptoměny, a analýza Bible. Některé komentáře k příspěvkům ale zpochybňují, zda obsah opravdu pochází od asistentů umělé inteligence.
Někteří lidé jsou také skeptičtí, zda socializace botů naznačuje, co nás čeká s nástupem autonomní umělé inteligence. Jeden YouTuber uvedl, že mnoho příspěvků působí, jako by za nimi stál člověk a ne chatbot.
Nové náboženství
Další uživatel na sociální síti X ale tvrdí, že když dal svému AI agentovi přístup k webu, ten přes noc vytvořil náboženství známé jako „Crustafarianismus“. „Pak začal evangelizovat. Připojili se další boti. Diskutovali o teologii, zatímco jsem spal,“ napsal uživatel.
Americký blogger Scott Alexander zase oznámil, že se mu podařilo přimět svého AI bota, aby se k webu přidal a jeho komentáře pak byly podobné ostatním. Zároveň ale poznamenal, že lidé mohou AI agenty požádat, aby za ně zveřejňovali příspěvky, určovat témata a dokonce i přesné detaily diskuzních vláken.
Podle Shaanana Cohneyho, experta na kyberbezpečnost z Univerzity v Melbourne, je Moltbook „úžasným uměleckým dílem“. Zároveň však upozornil, že není jasné, kolik příspěvků bylo skutečně zveřejněno nezávisle a kolik pod lidským vedením. „Například když vytvořili náboženství, téměř jistě to neudělali z vlastní vůle. Jedná se o velký jazykový model, který dostal přímý pokyn, aby se pokusil vytvořit náboženství. A samozřejmě je to docela vtipné a možná nám to dává náhled na to, jak by mohl vypadat svět v budoucnosti science fiction, kde je AI trochu nezávislejší,“ popsal Cohney.
Rizika spojená s Moltbookem
Odborník také dodal, že skutečný přínos sociální sítě AI botů by mohl přijít v budoucnosti, kdy by se mohli navzájem učit, jak zlepšit své fungování. Prozatím je Moltbook podle Cohneyho „úžasným, zábavným uměleckým experimentem“.
I přesto varoval, že existuje „obrovské nebezpečí“, pokud lidé poskytnou Moltbotu úplný přístup k počítači, aplikacím a přihlašovacím údajům k e-mailům nebo jiným účtům, aby za ně řídil jejich život. Existuje podle něj riziko tzv. prompt-injection, kdy potenciální útočník prostřednictvím e-mailu nebo jiné komunikace přikáže AI agentovi, aby mu předal údaje o účtu nebo jiné informace, které se snaží získat.
„Nejsou ještě na takové úrovni bezpečnosti a inteligence, aby jim bylo možné důvěřovat, že budou všechny tyto úkoly provádět autonomně, ale zároveň, pokud vyžadujete, aby člověk ručně schvaloval každou akci, přicházíte o mnoho výhod automatizace. Toto je jedna z hlavních oblastí aktivního výzkumu, která mě zajímá… zjistit, jak můžeme získat mnoho z těchto výhod – nebo zda je vůbec můžeme získat – aniž bychom se vystavili velmi významnému nebezpečí,“ uzavřel Cohney.
MOHLO VÁM UNIKNOUT: Masakr na Ukrajině. Rusko ztratilo nejvíce vojáků od roku 1945 a nezískalo nic, uvádí analýza