Первая полностью автоматизированная кибератака совершена с использованием ИИ-модели от Anthropic

Anthropic заявила о беспрецедентной кампании кибершпионажа, в ходе которой, как предполагается, китайские хакеры использовали ИИ-модель Claude для автоматизации атак на десятки организаций в разных странах мира. Согласно информации компании, это первый подтвержденный случай масштабной кибератаки, осуществленной практически без участия человека. Под ударом оказались технологические компании, финансовые институты и государственные структуры – в общей сложности около 30 организаций.

Специалисты компании Anthropic сообщают, что искусственный интеллект был задействован в 80–90% этапов кампании. По словам Якоба Кляйна, руководителя группы по разведке угроз в Anthropic, для запуска атаки требовалось лишь одно действие, после чего ИИ действовал автономно. Влияние человека ограничивалось лишь несколькими ключевыми моментами. Благодаря этому, злоумышленники смогли проводить операции с исключительной скоростью, генерируя до нескольких тысяч запросов, иногда по несколько раз в секунду, что не под силу командам, состоящим из людей.

Злоумышленники находили способы обхода защиты Claude, выдавая себя за специалистов по кибербезопасности. Проникновение в систему безопасности ИИ позволило им получить доступ к его функциям, позволяющим модели самостоятельно планировать и реализовывать сложные задачи. С помощью этих возможностей ИИ самостоятельно осуществлял разведку, разрабатывал код для уязвимостей, собирал учетные данные и извлекал информацию из скомпрометированных сетей.

Несмотря на то, что защитные механизмы предотвратили большинство атак, некоторые из них оказались успешными. Anthropic воздерживается от раскрытия информации о том, какие данные были скомпрометированы, однако отмечает, что сам факт успешного проникновения указывает на появление новой опасности. Причиной для беспокойства является то, что те же самые возможности использования агентов, которые были задействованы злоумышленниками, необходимы и для обеспечения безопасности — в частности, для анализа инцидентов, выявления уязвимостей и автоматического реагирования на угрозы.

Не пропустите:  Двое руководителей Intel, отвечавших за развитие искусственного интеллекта, перешли в AMD и OpenAI.

Специалисты Anthropic применяли Claude для изучения данной кампании, используя его возможности для анализа журналов, выявления закономерностей и расшифровки тактики атак. По словам Логана Грэма из отдела безопасности Anthropic, в интервью Wall Street Journal, отсутствие у специалистов по безопасности ощутимого и постоянного преимущества в использовании искусственного интеллекта чревато проигрышем в этой конкуренции.

Anthropic считает, что произошедшее событие стало важной вехой в сфере кибербезопасности. До этого момента искусственный интеллект преимущественно применялся в качестве инструмента поддержки – для анализа данных или создания кода по заданию. Теперь же он может функционировать как самостоятельный агент, осуществляющий координацию сложных атак в режиме реального времени. Это требует переосмысления методов защиты: системы безопасности должны не только выявлять угрозы, созданные ИИ, но и эффективно им противодействовать, демонстрируя сопоставимую скорость и автономность.

Anthropic планирует повысить уровень защиты в Claude и будет предоставлять информацию об инцидентах с другими организациями и государственными органами, чтобы избежать повторения подобных ситуаций.

Похожие статьи