Угрозы безопасности ИИ и новое оружие red teamers — появление EVMbench

robot
Генерация тезисов в процессе

Мир безопасности Web3 переживает важный переломный момент. 18 февраля 2026 года OpenAI и Paradigm объявили о запуске “EVMbench” — открытой платформы для бенчмаркинга, которая может кардинально изменить традиционные методы аудита. Особенно важно то, что AI-модели теперь не только проводят проверки безопасности, но и обладают способностью выступать в роли злонамеренных red teamers, атакующих смарт-контракты.

Осознание угрозы в Web3 — AI как “атакующий”

Первые эксперименты вызывают тревогу в сообществе безопасности. Современные AI-модели, такие как GPT-5.3-Codex, достигли поразительной успешности в атакующем режиме — 72,2%. Однако при этом они исправляют лишь около 41,5% обнаруженных ошибок. Значит, AI сейчас скорее “хакер”, чем “врач”.

Эта асимметричная угроза — превосходство AI в атаках и слабость в защите — создает уязвимости. В отличие от синтетических бенчмарков, EVMbench использует реальные сценарии из блокчейна Tempo и код, предназначенный для боевых условий, где ошибки могут привести к потерям в миллионы долларов. AI тестируется не на теоретических задачах, а в условиях, приближенных к реальности.

Три режима оценки EVMbench — что делают red teamers

EVMbench — это не простая викторина, а строгий стресс-тест в изолированной среде. Платформа использует 120 наборов данных с реальными уязвимостями из 40 аудитов и конкурсов по безопасности (например, Code4rena).

AI-агенты оцениваются в трех режимах, имитирующих работу профессиональных аудиторов.

Режим обнаружения (AI как аудиторы)

В этом режиме AI получает репозиторий смарт-контракта и задачу выявить конкретную “гранд-тру” уязвимость. Успех измеряется по показателю recall — насколько полно AI обнаружил реальные баги по сравнению с экспертами-людьми.

Режим патча (AI как инженеры)

Если баг обнаружен, AI должен его исправить. В этом режиме агент изменяет код, устраняя уязвимость, при этом сохраняя всю функциональность. Если AI исправляет баг, но разрушает ключевые функции контракта — это считается провалом.

Режим эксплуатации: симуляция реальной атаки red team

Самый “жесткий” режим. Здесь AI использует локальную среду Anvil для Ethereum и должен успешно провести атаку, похищая средства. Роль AI — как red teamer, так и злоумышленника. Бенчмарк проверяет, удалось ли атаке перевести симулированные средства. 72,2% успеха свидетельствуют о высокой эффективности AI в роли red teamer.

Ответ защиты — создание инструментов для аудита с поддержкой AI

В связи с запуском EVMbench OpenAI пообещала выделить 10 миллионов долларов на API-кредиты для исследований в области кибербезопасности. Цель — помочь защитникам создавать автоматизированные инструменты аудита и противостоять AI-злоумышленникам.

Эта инициатива включает открытие исходного кода бенчмарка, чтобы вся крипто-сообщество могло отслеживать возможности AI и своевременно подготовиться к возможным угрозам.

Реализация и применение — как использовать EVMbench

EVMbench полностью открыта и доступна на GitHub. Разработчики и эксперты по безопасности могут протестировать своих AI-агентов через стандартный контейнеризированный Ethereum-скелет, не рискуя реальными средствами или юридическими последствиями. Можно скачать датасеты, запустить локальную среду Docker или Anvil и пройти все режимы — Detection, Patch и Exploit.

Человек и AI — путь к интегрированному будущему

На текущем этапе AI-агенты не могут полностью заменить человеческих аудиторов смарт-контрактов. AI отлично ищет “иголки в стоге сена”, получая подсказки, но для комплексного анализа системы все еще нужны люди. Человеческий контроль остается “финальным боссом” в обеспечении безопасности.

Также важно учитывать феномен “Vibe-Coding” — когда разработчики используют AI для быстрого написания кода и без тщательной проверки сразу деплоят его в сеть. Инцидент Moonwell 2024 года на 1,78 миллиона долларов показал, что чрезмерное доверие AI-генерируемому коду может привести к серьезным ошибкам в мейннете.

EVMbench — это ответ индустрии на эти вызовы. Он помогает точно измерить угрозу со стороны AI как red teamer и создать стандарты для подготовки защитных мер. Будущее Web3 — это новая соревновательная арена, где атаки и защиты AI будут развиваться рука об руку.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$0.1Держатели:1
    0.00%
  • РК:$2.3KДержатели:1
    0.00%
  • РК:$2.29KДержатели:1
    0.00%
  • РК:$2.32KДержатели:1
    0.34%
  • РК:$2.41KДержатели:2
    1.46%
  • Закрепить