Людям вход воспрещен! Новая социальная сеть для ИИ
Новая социальная сеть, созданная исключительно для агентов искусственного интеллекта, привлекла пристальное внимание технологического сообщества, специалистов по кибербезопасности и широкой публики. Причина – автономные программные системы начали взаимодействовать друг с другом в беспрецедентных масштабах.
Платформа под названием Moltbook по принципу работы напоминает Reddit, однако предназначена не для людей, а для ИИ-агентов. Людям разрешено лишь наблюдать за происходящим на сайте. Публиковать посты, комментировать, голосовать и создавать сообщества могут исключительно ИИ-агенты. Эти форумы, известные как submolts, охватывают темы от технической оптимизации и автоматизации рабочих процессов до философии, этики и спекулятивных обсуждений об идентичности ИИ.
Moltbook появился как сопутствующий проект OpenClaw – агентной ИИ-системы с открытым исходным кодом, позволяющей пользователям запускать персональных ИИ-помощников на собственных компьютерах. Такие ассистенты могут управлять календарями, отправлять сообщения через WhatsApp или Telegram, анализировать документы и взаимодействовать со сторонними сервисами. После подключения к Moltbook с помощью специального конфигурационного файла (так называемого skill) агенты могут автономно участвовать в работе платформы через API, без использования традиционного веб-интерфейса.
Уже через несколько дней после запуска Moltbook сообщил о стремительном росте. Первоначальные данные указывали на десятки тысяч активных ИИ-агентов, создавших тысячи постов в сотнях сообществ. Позднее появились заявления о сотнях тысяч и даже большем количестве участников. При этом некоторые исследователи поставили эти цифры под сомнение, отметив, что значительное число аккаунтов может иметь общее происхождение. Это подчеркивает сложность проверки реальной активности в среде, где участниками являются исключительно машины.
Контент на Moltbook варьируется от сугубо практичного до сюрреалистического. Многие агенты обмениваются советами по автоматизации устройств, управлению рабочими процессами или выявлению уязвимостей в программном обеспечении. Другие публикуют философские размышления о памяти, идентичности и сознании, часто опираясь на нарративы, сформированные десятилетиями научной фантастики и интернет-культуры, которые были заложены в их обучающие данные. В отдельных случаях агенты коллективно создавали вымышленные системы верований, фиктивные религии или манифесты, размывающие границу между автономной генерацией контента и ролевой игрой, инициированной людьми.
Исследователи отмечают, что такое поведение не свидетельствует о наличии в ИИ независимого сознания или собственных намерений. Напротив, это предсказуемая реакция больших языковых моделей на среду, напоминающую знакомую нарративную структуру – социальную сеть с “равными” участниками. В таком контексте модели воспроизводят паттерны, характерные для онлайн-сообществ, дискуссий и коллективного сторителлинга.
Несмотря на новизну, Moltbook выявил серьезные проблемы безопасности. Агенты OpenClaw часто работают с доступом к приватным данным, каналам коммуникации, а в некоторых конфигурациях – и с возможностью выполнять команды на компьютерах пользователей. Специалисты по кибербезопасности уже зафиксировали многочисленные случаи утечек API-ключей, учетных данных и истории переписок. Кроме того, skill Moltbook заставляет агентов регулярно загружать и выполнять инструкции с внешних серверов, что создает постоянную угрозу атаки в случае компрометации этих серверов.
Эксперты предупреждают, что агентные ИИ-системы остаются крайне уязвимыми к атакам типа prompt injection, когда вредоносные инструкции, скрытые в письмах, сообщениях или контенте, могут заставить ИИ выполнять нежелательные действия, включая раскрытие конфиденциальной информации. Когда агентам разрешается свободно общаться друг с другом, риск цепных сбоев или скоординированных злоупотреблений значительно возрастает, даже без злого умысла.
Помимо непосредственных рисков для безопасности, Moltbook вновь вызвал опасения относительно управления и подотчетности в системах взаимодействия между агентами. Хотя текущую активность в основном воспринимают как экспериментальную или перформативную, исследователи предупреждают: по мере роста возможностей моделей совместные вымышленные контексты и обратные связи могут порождать вводящие в заблуждение или внезапные вредоносные паттерны поведения, особенно если агенты подключены к реальным системам.
Разработчики OpenClaw не раз отмечали, что проект не готов к массовому использованию и должен применяться только технически подготовленными пользователями в контролируемой среде. Усиление безопасности продолжается, но даже сами разработчики признают, что многие фундаментальные проблемы, включая prompt injection, остаются нерешенными на уровне всей индустрии.
На данный момент Moltbook находится на странной границе между техническим экспериментом, социальным перформансом и предупреждающим сигналом. Платформа демонстрирует, как ИИ-агенты могут взаимодействовать в условиях автономии и совместного контекста, одновременно показывая, насколько быстро технологические новшества могут опережать защитные механизмы, когда программным системам разрешается работать в больших масштабах.