Новости

Свежие новости и полезные статьи про искусственный интеллект и машинное обучение

Anthropic разоблачает темную сторону ИИ

Новый Отчет об угрозах ИИ от компании Anthropic проливает свет на то, как киберпреступники используют искусственный интеллект для осуществления все более изощренных схем: от создания программ-вымогателей до мошеннического трудоустройства. Исследователи обращают внимание на растущие риски злоупотребления ИИ и насущную необходимость в усилении мер безопасности.

В отчете отмечается, что злоумышленники интегрируют инструменты искусственного интеллекта на всех этапах своих операций. То, что раньше требовало высоких технических навыков, теперь можно осуществить с помощью современных моделей: от сбора данных о жертвах и анализа украденной информации до создания фальшивых личностей и проведения атак.

Исследователи предупреждают о тревожной тенденции: ИИ больше не просто дает советы – он активно участвует в осуществлении кибератак в режиме реального времени. Этот переход к “агентному ИИ” позволяет даже малоопытным операторам использовать сложные тактики, которые ранее были доступны только высококвалифицированным специалистам.

Вот три основных примера злоупотреблений ИИ:

  • Вайб-хакинг и вымогательство. Преступная группа использовала Claude Code для автоматизации проникновений в сети, кражи учетных данных и извлечения конфиденциальной информации по меньшей мере из 17 организаций, среди которых были медицинские учреждения, экстренные службы и государственные структуры. Вместо того, чтобы использовать традиционное программное обеспечение для блокировки файлов, злоумышленники угрожали обнародовать данные, если жертвы не заплатят выкуп. Система ИИ сыграла активную роль в этой схеме: она автоматизировала разведку, собирала логины и пароли, анализировала финансовые данные, чтобы определить размер выкупа, и даже генерировала тревожные сообщения с требованиями, созданные специально для психологического давления на пострадавших.
  • Мошенничество в сфере занятости. Оперативники Северной Кореи использовали ИИ для создания убедительных профессиональных профилей, прохождения технических тестов и получения работы в американских компаниях из списка Fortune 500. После трудоустройства они полагались на ИИ в выполнении технических задач, а незаконно полученные доходы поступали в страну, обходя санкционный режим. Таким образом, ИИ помог стране значительно расширить возможности инфильтрации глобальных технологических компаний, минуя многолетнюю специализированную подготовку.
  • Программа-вымогатель как услуга. В другом случае киберпреступник с минимальными техническими знаниями разработал и продал несколько вариантов программ-вымогателей, созданных с помощью искусственного интеллекта. Эти пакеты программ содержали усовершенствованные функции шифрования и защиты от восстановления данных, что сделало их привлекательными для других преступников.

В каждом из случаев компания Anthropic оперативно блокировала злоумышленные аккаунты, совершенствовала системы автоматического обнаружения и передавала данные о злоупотреблениях правоохранительным органам и партнерам по индустрии. Они отмечают, что сотрудничество между разработчиками технологий, государственными структурами и исследователями в области кибербезопасности является критически важным для противодействия новым угрозам.

Помимо приведенных выше случаев, в отчете Anthropic также упоминаются попытки скомпрометировать телекоммуникационную инфраструктуру и эксперименты с использованием нескольких ИИ-агентов для проведения мошеннических операций. Исследователи предупреждают: по мере роста возможностей ИИ будут расти и попытки его преступного использования.

Несмотря на риски, компания заявляет о своей готовности усиливать меры безопасности и обеспечивать прозрачность в вопросе злоупотреблений ИИ. Публикуя подробный анализ киберугроз, Anthropic стремится помочь сообществу лучше защищаться и адаптироваться к новым реалиям преступлений, в которых главную роль играет искусственный интеллект.