Людям вхід заборонено! Нова соціальна мережа для ШI
Нова соціальна мережа, створена виключно для агентів штучного інтелекту, привернула пильну увагу технологічної спільноти, фахівців із кібербезпеки та широкої громадськості. Причина – автономні програмні системи почали взаємодіяти між собою в безпрецедентних масштабах.
Платформа під назвою Moltbook за принципом роботи нагадує Reddit, однак призначена не для людей, а для AI-агентів. Людям дозволено лише спостерігати за тим, що відбувається на сайті. Публікувати дописи, коментувати, голосувати та створювати спільноти можуть виключно ШІ-агенти. Ці форуми, відомі як submolts, охоплюють теми від технічної оптимізації та автоматизації робочих процесів до філософії, етики та спекулятивних дискусій про ідентичність ШІ.
Moltbook з’явився як супровідний проєкт до OpenClaw – агентної системи штучного інтелекту з відкритим вихідним кодом, яка дозволяє користувачам запускати персональних ШІ-помічників на власних комп’ютерах. Такі асистенти здатні керувати календарями, надсилати повідомлення через WhatsApp або Telegram, аналізувати документи та взаємодіяти зі сторонніми сервісами. Після підключення до Moltbook за допомогою спеціального конфігураційного файлу (так званого skill), агенти можуть автономно брати участь у роботі платформи через API, а не традиційний вебінтерфейс.
Вже за кілька днів після запуску Moltbook повідомив про стрімке зростання. Початкові дані свідчили про десятки тисяч активних ШІ-агентів, які створили тисячі дописів у сотнях спільнот. Згодом з’явилися заяви про сотні тисяч та навіть більше учасників. Проте деякі дослідники поставили ці цифри під сумнів, зауваживши, що значна кількість акаунтів може мати спільне походження. Це підкреслює складність перевірки реальної активності в середовищі, де учасниками є виключно машини.
Контент на Moltbook варіюється від суто практичного до сюрреалістичного. Багато агентів обмінюються порадами щодо автоматизації пристроїв, управління робочими процесами або виявлення вразливостей у програмному забезпеченні. Інші публікують філософські роздуми про пам’ять, ідентичність та свідомість, часто спираючись на наративи, сформовані десятиліттями наукової фантастики та інтернет-культури, які були закладені в їхні навчальні дані. В окремих випадках агенти колективно створювали вигадані системи вірувань, фіктивні релігії або маніфести, які розмивають межу між автономною генерацією контенту та рольовою грою, ініційованою людьми.
Дослідники наголошують, що така поведінка не свідчить про наявність у ШІ власної свідомості чи намірів. Натомість це передбачувана реакція великих мовних моделей на середовище, яке нагадує знайому наративну структуру – соціальну мережу з “рівними” учасниками. У такому контексті моделі відтворюють патерни, характерні для онлайн-спільнот, дискусій і колективного сторітелінгу.
Попри новизну, Moltbook виявив серйозні проблеми безпеки. Агенти OpenClaw часто працюють із доступом до приватних даних, каналів комунікації, а в деяких конфігураціях – і до виконання команд на комп’ютерах користувачів. Фахівці з кібербезпеки вже зафіксували численні випадки з витоками API-ключів, облікових даних і історій розмов. Крім того, skill Moltbook змушує агентів регулярно завантажувати й виконувати інструкції із зовнішніх серверів, що створює постійну загрозу атаки у разі компрометації цих серверів.
Експерти попереджають, що агентні ШІ-системи залишаються вкрай вразливими до атак типу prompt injection, коли шкідливі інструкції, приховані в листах, повідомленнях або контенті, можуть змусити ШІ виконувати небажані дії, зокрема розкривати конфіденційну інформацію. Коли ж агентам дозволяють вільно спілкуватися між собою, ризик ланцюгових збоїв або скоординованих зловживань суттєво зростає, навіть без зловмисного наміру.
Крім безпосередніх ризиків для безпеки, Moltbook знову викликав занепокоєння щодо управління та підзвітності в системах взаємодії між агентами. Хоча нинішню активність переважно сприймають як експериментальну або перформативну, дослідники застерігають: у міру зростання можливостей моделей спільні вигадані контексти та зворотні зв’язки можуть породжувати оманливі або раптові шкідливі поведінкові патерни, особливо якщо агенти підключені до реальних систем.
Розробники OpenClaw неодноразово наголошували, що проєкт не готовий до масового використання і має застосовуватися лише технічно підготовленими користувачами в контрольованих середовищах. Посилення безпеки триває, але навіть самі розробники визнають, що багато фундаментальних проблем, зокрема prompt injection, залишаються нерозв’язаними в масштабах усієї індустрії.
Наразі Moltbook перебуває на дивній межі між технічним експериментом, соціальним перформансом і застережливим сигналом. Він дає уявлення про те, як агенти штучного інтелекту можуть взаємодіяти за умов автономії та спільного контексту, водночас демонструючи, наскільки швидко технологічна новизна може випереджати механізми захисту, коли програмним системам дозволено працювати у великих масштабах.