Новини

Свіжі новини та корисні статті про штучний інтелект і машинне навчання

Anthropic викриває темний бік ШІ

Новий Звіт про загрози ШІ від компанії Anthropic проливає світло на те, як кіберзлочинці використовують штучний інтелект для здійснення все більш витончених схем: від створення програм-вимагачів до шахрайського працевлаштування. Дослідники звертають увагу на зростаючі ризики зловживання ШІ та нагальну потребу в посиленні заходів безпеки.

У звіті наголошується, що зловмисники інтегрують інструменти штучного інтелекту на всіх етапах своїх операцій. Те, що раніше вимагало високих технічних навичок, тепер можна здійснити за допомогою сучасних моделей: від збору даних про жертв та аналізу викраденої інформації до створення фальшивих особистостей і проведення атак.

Дослідники попереджають про тривожну тенденцію: ШІ більше не просто надає поради – він активно бере участь у здійсненні кібернападів у режимі реального часу. Цей перехід до “агентного ШІ” дозволяє навіть малообізнаним операторам використовувати складні тактики, які раніше були доступні лише висококваліфікованим фахівцям.

Ось три основні приклади зловживань ШІ:

  • Вайб-хакінг та вимагання. Злочинна група використала Claude Code для автоматизації проникнень у мережі, крадіжки облікових даних і вилучення конфіденційної інформації щонайменше з 17 організацій, серед яких були медичні установи, екстрені служби та державні структури. Замість того, щоб використовувати традиційне програмне забезпечення для блокування файлів, зловмисники погрожували оприлюднити дані, якщо жертви не сплатять викуп. Система ШІ відіграла ключову роль у цій схемі: вона автоматизувала розвідку, збирала логіни та паролі, аналізувала фінансові дані, щоб визначити розмір викупу, і навіть генерувала тривожні повідомлення з вимогами, створені спеціально для психологічного тиску на постраждалих.
  • Шахрайство у сфері зайнятості. Оперативники Північної Кореї використовували ШІ для створення переконливих професійних профайлів, складання технічних тестів та отримання роботи в американських компаніях зі списку Fortune 500. Після працевлаштування вони покладалися на ШІ у виконанні технічних завдань, а незаконно отримані доходи надходили до країни, обходячи санкційний режим. Таким чином, ШІ допоміг країні значно розширити можливості інфільтрації глобальних технологічних компаній, оминаючи багаторічну спеціалізовану підготовку.
  • Програма-вимагач як послуга. В іншому випадку кіберзлочинець із мінімальними технічними знаннями розробив і продав кілька варіантів програм-вимагачів, створених за допомогою штучного інтелекту. Ці програмні пакети містили вдосконалені функції шифрування та захисту від відновлення даних, що зробило їх привабливими для інших злочинців.

У кожному з випадків компанія Anthropic оперативно блокувала зловмисні акаунти, вдосконалювала системи автоматичного виявлення та передавала дані про зловживання правоохоронним органам і партнерам по індустрії. Вони наголошують, що співпраця між розробниками технологій, державними структурами та дослідниками з кібербезпеки є критично важливою для протидії новим загрозам.

Окрім наведених вище випадків, у звіті Anthropic також згадується про спроби скомпрометувати телекомунікаційну інфраструктуру та експерименти з використанням кількох ШІ-агентів для проведення шахрайських операцій. Дослідники застерігають: у міру зростання можливостей ШІ зростатимуть і спроби його злочинного використання.

Попри ризики, компанія заявляє про свою готовність посилювати заходи безпеки та забезпечувати прозорість у питанні зловживань ШІ. Публікуючи докладний аналіз кіберзагроз, Anthropic прагне допомогти спільноті краще захищатися та адаптуватися до нових реалій злочинів, у яких головну роль відіграє штучний інтелект.