Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Китайская AI-компания: как «скопировать работу Claude Code»?
Источник: Geek Park
Автор: Хуалинь, танцующий король
Если бы несколько дней назад кто-то сказал мне, что Anthropic, которая якобы «в первую очередь уделяет внимание AI-безопасности», в течение недели подряд дважды допустит утечку двух ключевых секретов, я, пожалуй, решил бы, что это шутка на День дурака.
Но это случилось как раз за день до Дня дурака.
31 марта исследователь безопасности Чаофан Шоу обнаружил, что в версии Claude Code 2.1.88, опубликованной Anthropic в npm, спрятан файл source map объёмом 59,8 МБ. Этот файл, который должен использоваться для внутренней отладки, указывает на zip-архив в своём собственном хранилище Cloudflare R2 в Anthropic — внутри находятся полный исходный код TypeScript для Claude Code, около 1900 файлов, 512 000 строк кода.
В течение нескольких часов на GitHub появились несколько зеркальных репозиториев. Один из них — проект под названием «claw-code» — за два часа набрал 50 000 звёзд, став репозиторием с самым быстрым ростом числа звёзд в истории GitHub. Количество fork превысило 41 500.
А ровно пять дней назад Anthropic только что снова попала в заголовки из‑за утечки существования следующего поколения модели «Mythos» — из‑за незащищённого публичного кэша данных, который был доступен без защиты. Эта модель, внутри описанная как «скачок по способностям» и «намного превосходящая все существующие AI-модели в области кибербезопасности», является новой разработкой.
Две утечки за неделю. Компания, говорящая о безопасности, получила пощёчину собственной проблемой с безопасностью. Оценки в сообществе разработчиков поразительно единообразны — «слишком сатирично, чтобы быть правдой».
Но как бы то ни было, утекшее — действительно «содержательное». Более важный вопрос в том, как AI-компания должна использовать эту «утечку» и просто переписать чужую работу.
01 Что есть внутри «оболочки» Claude Code?
У многих первая реакция такая: Claude Code — это же не что иное, как CLI-инструмент, обёрнутый вокруг API модели. Ну утек исходный код — и что? Без весов моделей эти коды всего лишь «оболочка».
Это предположение верно лишь наполовину. Да, Claude Code действительно оболочка, но это оболочка, настолько точная, что это даже удивляет.
Сначала — инструментальная система. Claude Code использует архитектуру, похожую на плагины: каждая функция — чтение/запись файлов, выполнение shell-команд, веб-скрейпинг, интеграция LSP — представляет собой независимый модуль инструмента с контролем прав. Одного только слоя описаний инструментов — 29 000 строк TypeScript.
Описание каждого инструмента — это не просто одна фраза, а настолько подробная инструкция, что она говорит модели «когда использовать этот инструмент, как его использовать и какой результат ожидается после применения». Эти описания сами по себе являются формой тщательно настроенного prompt engineering.
Затем — система памяти. Утекший код показывает трёхуровневую архитектуру «самовосстановления памяти». Самый нижний уровень — MEMORY.md: лёгкий индексный файл, каждая строка примерно 150 символов, который постоянно подгружается в контекст. Конкретные знания по проекту распределены по «тематическим файлам» и подгружаются по необходимости. Оригинальная история диалога никогда не перечитывается целиком в контекст — она извлекается только при необходимости через grep по конкретным идентификаторам.
Иными словами, ключевая проблема, над которой инженеры Anthropic потратили много времени, — это не «как вызвать API», а «как заставить модель максимально умно работать в ограниченном окне контекста».
А затем — тот самый KAIROS, который взбудоражил всех.
Эта функция, названная по-гречески «подходящий момент», упоминается в исходном коде более 150 раз. Это режим автономного сторожевого процесса, при котором Claude Code как always-on фоновый прокси продолжает работать. Ещё интереснее логика «autoDream» — когда пользователь свободен, прокси выполняет «интеграцию памяти»: объединяет разрозненные наблюдения, устраняет логические противоречия и превращает туманные инсайты в определённые факты.
Другими словами, Anthropic превращает AI-программирующего ассистента из инструмента «вопрос — ответ» в соавтора, который «постоянно понимает ваш проект и активно выявляет проблемы».
Кроме того, в утекшем коде содержатся 44 не выпущенных feature flag, покрывающих режимы координации нескольких агентов (COORDINATOR MODE), голосовое взаимодействие (VOICE_MODE), 30-минутные удалённые сессии планирования (ULTRAPLAN), а также терминального питомца в духе торопамакэгё (BUDDY) — с 18 видами и уровнями редкости.
Стоит упомянуть ещё две детали. Одна — «frustration regex»: отрывок регулярного выражения для обнаружения того, ругает ли пользователь Claude. Судя по всему, определять эмоциональное состояние пользователя с помощью regex гораздо быстрее и дешевле, чем использовать для этого вывод модели.
Другая — «undercover mode»: Anthropic использует Claude Code для «скрытого вклада» в публичные open-source проекты; системная подсказка явно пишет: «Вы запускаете UNDERCOVER режим… Ваш commit не должен содержать никакой внутренней информации Anthropic. Не раскрывайте личность».
02 Чему может научиться китайская AI-компания
А теперь вернёмся к действительно важному вопросу.
За прошедший год ниша AI-инструментов для программирования в Китае явно ускорилась. Trae от ByteDance уже эволюционировала от первоначального MarsCode до AI-native IDE: она интегрирует Agent-режим, поддерживает полную автоматизацию всего процесса — от понимания требований до написания кода и тестирования. CodeGeeX от Zhipu открыла исходный код и развертывает локально, выполняя глубокие оптимизации понимания китайского кода. Tongyi Lingma и Doubao MarsCode тоже быстро проходят итерации.
Но если сравнить эти продукты с архитектурой, раскрытой через утечку Claude Code, разрыв заключается не в том, «можно ли пользоваться», а в инженерной точности.
Урок первый: описание инструментов — это сила продукта.
Это, возможно, самое легко упускаемое из виду и одновременно самое ценное.
Prompt-описания для каждого инструмента в Claude Code прошли чрезвычайно точную настройку — когда использовать, когда не использовать, что делать с результатами после использования, как повторять при ошибках. По сути, эти описания обучают модель тому, как «делать хорошего программиста».
Во многих китайских инструментах реализация tool use пока держится на стадии «дать модели сигнатуру функции, пусть она сама угадывает, как использовать». Одного лишь того, чтобы описания инструментов довести до уровня Claude Code, уже достаточно, чтобы эффективность одного и того же модели поднялась на порядок.
Урок второй: архитектура памяти сильнее, чем параметры модели — она сильнее влияет на пользовательский опыт.
Трёхуровневая система памяти Claude Code решает очень реальную проблему: окно контекста модели ограничено, и вы не можете «впихнуть» туда всю историю диалогов.
Подход Anthropic — разнести память по слоям: горячие данные всегда в сети, тёплые данные подгружаются по необходимости, холодные данные — только индекс. Эта идея не новая, но в инженерной реализации в AI-инструментах китайские команды в большинстве случаев ещё не достигли такой точности.
Урок третий: распознавание эмоций — не мистика, а инженерная задача.
Использовать регулярное выражение, чтобы определить, не выходит ли пользователь из себя, а затем корректировать стратегию ответа.
Решение настолько простое, что выглядит грубым, но оно крайне практично. Оно подсказывает одну истину: хорошему AI-продукту не на каждую проблему нужно отвечать с помощью модели — иногда достаточно одного regex.
Команды, работающие над AI-инструментами в Китае, часто впадают в инерцию мышления «со всеми проблемами — к большой модели». Это пустая трата ресурсов.
Урок четвёртый: направление, на которое указывает KAIROS, важнее самого KAIROS.
Автономный always-on фоновый прокси, который автоматически упорядочивает память и находит проблемы, когда пользователь не использует систему.
Это направление продукта означает, что следующим шагом AI-программирующего ассистента будет не «отвечать быстрее», а «уже работать, пока вы не задали вопрос».
На данный момент почти все AI-инструменты в Китае реактивные — пользователь отдаёт команду, инструмент выполняет.
Кто первым реализует режим сторожевого процесса, тот, возможно, и определит следующую форму продукта.
03 Где проходит граница «заимствования»
Конечно, между обучением и плагиатом есть линия.
С юридической точки зрения это не открытый код, а коммерческое ПО, ставшее доступным из-за случайной утечки. Прямое построение продукта на основе утекшего кода несёт очевидный риск нарушения авторских прав. На GitHub «claw-code» заявляет о переписывании на Rust, но если ключевая логика просто скопирована, юридическая граница остаётся размытой.
Для китайских компаний, учитывая усиливающееся давление на выход на зарубежные рынки, такие риски нужно внимательно оценивать.
С технической точки зрения многие дизайнерские решения Claude Code глубоко адаптированы под способности Claude-моделей. Например, описания инструментов настолько длинные и подробные именно потому, что у Claude достаточно сильная обработка длинного контекста: она не «сбивается» из-за слишком длинной системной подсказки. Если же перенести на модель с коротким окном контекста и слабым следованием инструкциям, копирование той же prompt-стратегии может дать обратный эффект.
По-настоящему умный подход — не форкать эти 512 000 строк кода, а понять каждый tradeoff, стоящий за каждым решением в дизайне, и затем заново реализовать под особенности своей модели.
Архитектурную идею можно взять, шаблоны инструментальной оркестрации можно взять, стратегии разбиения памяти на слои — можно взять, но реализация должна быть собственной.
Есть ещё одна реальность, которую легко упустить: Anthropic утекла копия (снимок), а их инженерная команда каждый день итеративно обновляет систему. 44 feature flag означают, что минимум дюжина значимых функций стоит в очереди на выпуск.
Код, который вы форкнете сегодня, завтра окажется старой версией. Если просто «догонять копированием», никогда не получится. Поняв принципы, вы сможете проложить собственный путь.
Смысл этой утечки, возможно, в наибольшей степени не в технических деталях, а в том, что она срывает слой мистики: оказывается, самый главный AI-инструмент программирования от Anthropic на нижнем уровне — это тоже не что иное, как тщательно спроектированная prompt-оркестрация плюс инженерная диспетчеризация инструментов.
Никакой чёрной магии — только огромное количество доводки деталей.
Для AI-компаний в Китае это, по сути, хорошие новости. Это означает, что разрыв можно сократить. При условии, что у вас хватит терпения отшлифовать эти детали — а не будет желания просто взять чужой код, переименовать и выдать за свой.