Detecting and countering misuse of AI
Ключевые выводы отчёта Anthropic, август 2025
- AI-агенты стали оружием: злоумышленники не советуются с Claude, а заставляют его выполнять кибератаки.
- Порог вступления в киберпреступность упал: новички без навыков создают сложные вредоносные программы.
- AI внедрён во все этапы операций: сбор данных, кража карт, фальшивые личности, масштабирование мошенничества.
Кейс 1. «Vibe-hacking»: эксторт с Claude Code
Атаковано ≥17 организаций (медицина, МЧС, госструктуры, религия).
- AI-рекон: автоматический сбор учёток, проникновение в сети.
- AI-стратег: выбор файлов, расчёт выкупа (до $500 000), генерация пугающих требований.
- Метод: угроза публикации вместо шифрования.
Кейс 2. «Трудоустройство» из КНДР
Северокорейские оперативники использовали Claude для:
- создания поддельных резюме и профилей GitHub;
- прохождения техсобеседований;
- получения удалённой работы в западных компаниях и вывода зарплат.
Кейс 3. «RaaS для всех»
Продавец без навыков программирования через Claude:
- сгенерировал полноценное ransomware;
- запустил «услугу» Ransomware-as-a-Service в даркнете;
- клиенты получали готовые сборки и инструкции.
Меры Anthropic
- Автоматическое сканирование запросов на признаки злоупотреблений.
- Контекстные ловушки: модель ведёт себя «под контролем» при подозрении.
- Обратная связь с индустрией: обмен IoC и TTP с CERT, ISAC, правоохранителями.