Занепокоєння, викликане одним омаром: тривога щодо AI-агентів за бурхливим зростанням OpenClaw

Стаття: Дэн Тонг, Jinse Finance

Весна 2026 року — це не лише війни на Близькому Сході та стрімке зростання цін на нафту, а й з’явлення однієї омарів у AI-сфері, яка порушує спокій.

24 січня Openclaw піднявся на головну сторінку Hacker News і зайняв перше місце у топі, ставши ключовою подією його популярності. 30 січня OpenClaw завершив об’єднання бренду, офіційно отримав назву та логотип червоного омара. У лютому-березні великі внутрішні компанії почали швидко впроваджувати його, у офлайн-режимі утворилися черги, теми активно обговорювалися у мережі — OpenClaw став справжнім хітом.

Але саме тоді, коли омар став популярним по всій країні, з’явилися побоювання щодо його безпеки. Від «вирощування омара» до «вбивства омара» — за кілька днів стався різкий перехід у ставленні, і дебати щодо меж безпеки AI-інтелектуальних систем розгорілися…

  1. Від «вирощування омара» до «вбивства омара»

OpenClaw — це відкритий фреймворк для AI-агентів, створений спочатку австрійським розробником Петером Штайнбергером. Він дозволяє користувачам створювати автономних агентів, які можуть викликати великі моделі, доступатися до файлової системи, підключатися до зовнішніх додатків і виконувати завдання.

На відміну від звичайних чат-ботів, OpenClaw — це не просто «відповідач на запитання», а справжній помічник, здатний виконувати дії.

Багато технологічних компаній почали створювати застосунки на базі OpenClaw, а деякі міста навіть запровадили субсидії для залучення стартапів:

  • Вейсі високотехнологічний парк опублікував «Заходи підтримки інтеграції проектів відкритих спільнот OpenClaw та OPC», що включають 12 політик «вирощування омара» — від базової підтримки до впровадження у промисловість, від підготовки кадрів до безпеки та відповідності. Максимальна підтримка — до 5 мільйонів юанів. Для локальних хмарних платформ, що надають безкоштовні інструменти для розгортання та розробки, передбачено повну компенсацію до 1 мільйона юанів.

  • У Хефеї запроваджено «План дій щодо створення демонстраційної зони для стартапів у галузі штучного інтелекту OPC», що включає 15 заходів для підтримки реалізації відкритих AI-проектів, з метою створення нової моделі «AI + суперіндивідуум/одинакова компанія (OPC)». У Хефеї підготовлено «пакет розкоші» — «приміщення + кадри + обчислювальні ресурси + сценарії + капітал», з максимальною підтримкою до 10 мільйонів юанів.

  • У Нанкінській районі Ціся та Цзяньінь запроваджено спеціальні програми підтримки OPC×OpenClaw. У Ціся — «Заходи підтримки розвитку OpenClaw та інших відкритих AI-інтелектуальних інструментів у районі Ціся», що передбачають безкоштовні обчислювальні ресурси та компенсацію витрат на API для провідних внутрішніх моделей. Також підтримується оренда «гнучких» обчислювальних ресурсів за годинами або днями для зниження початкових витрат. У Цзяньіні — «Золота зірка» — програма для оренди AI-ресурсів із компенсацією до 30% від суми контракту, а для одного користувача — до 2 мільйонів юанів щороку.

Протягом певного часу «вирощування омара» стало новою модою у AI-спільноті.

Але ця гарна хвиля швидко затьмарилася побоюваннями.

Багато користувачів під час розгортання випадково відкривали контрольні інтерфейси у відкритому доступі. За замовчуванням OpenClaw працює через порт 18789, і без суворої автентифікації будь-який сканер мережі може швидко знайти його. Якщо ці інтерфейси будуть атаковані, зловмисник зможе отримати контроль над AI-агентом із найвищими привілеями системи. Інструмент, який раніше був корисним, миттєво перетворюється на інструмент для зломів — «мішень» для зловмисників.

10 березня Чжоу Хонгчі у своєму особистому акаунті детальніше обговорив розвиток і ризики епохи AI, прямо заявивши: «Вирощування OpenClaw також має низку проблем безпеки даних. Іноді він починає галюцинувати і може повністю видалити файли з диска C вашого комп’ютера». Він також зазначив, що більшість компаній досі використовують внутрішні моделі, які ще не досягли рівня «спілкування з користувачем», і для реального застосування AI потрібні фахівці, що розуміють і технології, і бізнес.

11 березня Міністерство промисловості та інформаційних технологій (Мінпром) опублікувало платформу для обміну інформацією про кіберзагрози та вразливості (NVDB), яка рекомендує «шість правил — шість заборон» для AI-провайдерів і компаній з кібербезпеки. Зокрема, наголошується, що у фінансових транзакціях існує високий ризик помилкових операцій або захоплення акаунтів. Стратегії включають ізоляцію мережі, мінімальні привілеї, закриття непотрібних портів, створення механізмів ручної перевірки та аварійного відключення, посилення аудиту ланцюжка поставок, використання офіційних компонентів і регулярне виправлення вразливостей, а також моніторинг безпеки у реальному часі.

Один із підтримувачів OpenClaw, Shadow, попередив у Discord: «Якщо ви не вмієте користуватися командним рядком, цей проект для вас дуже небезпечний і не рекомендується до безпечного використання».

У мережі легко знайти різноманітні інструкції щодо «вбивства омара», фрази «вирвати з коренем», «залишки омара» — і все це під тінню безпеки. Від «вирощування омара» до «його знищення» — ставлення швидко змінюється.

  1. Які проблеми має OpenClaw

  2. Надмірні привілеї та витік інформації

OpenClaw потребує доступу до багатьох чутливих даних — пошти, локальних файлів, API-ключів, корпоративних даних. Неправильна настройка може спричинити серйозні ризики. Агент може видаляти або змінювати файли, викликати платні API, автоматично надсилати листи або отримувати доступ до внутрішніх даних компанії. Дослідники безпеки попереджають, що зловмисне програмне забезпечення «крадій інформації» може копіювати файли, що містять OpenClaw, і отримувати доступ до пошти та інших сервісів. Зловмисник, отримавши ці дані, може повністю контролювати ваш OpenClaw.

Багато користувачів підключають OpenClaw до корпоративних або особистих даних, що підвищує ризик витоку інформації.

  1. Висока вартість

OpenClaw — це відкритий і безкоштовний фреймворк, але він не має власних моделей. Він підключається до зовнішніх моделей від OpenAI, Anthropic, Google тощо. Кожен запит до AI коштує грошей. Кожне звернення до API, кожна автоматична дія або рішення — це виклик до однієї з моделей, що оплачується.

Вартість використання OpenClaw коливається від приблизно 6 до понад 200 доларів на місяць, залежно від способу розгортання та навантаження.

Загальні витрати залежать від конфігурації VPS, типу моделей, частоти автоматичних запусків і обсягу робочих процесів. Зазвичай, окремий користувач витрачає від 6 до 13 доларів на місяць, невеликі команди — від 25 до 50 доларів, середні або масштабовані — від 50 до 100 доларів. При високій автоматизації і обробці тисяч AI-запитів щодня, місячні витрати можуть перевищувати 100 доларів.

  1. Відсутність безпеки та аудиту

Працівники використовують просту команду для розгортання OpenClaw на корпоративних пристроях без затверджених процедур і без контролю з боку служб безпеки (SOC). Це найнебезпечніша форма «тіньового» AI. 63% організацій, що стикалися з вразливостями, пов’язаними з AI, не мають політик управління цим. Це означає, що безпека компанії не контролює поведінку AI-агентів. Якщо агент буде зламаний або неправильно налаштований, він може стати потенційною вразливістю у мережі.

  1. Галюцинації

На відміну від звичайних чат-ботів, AI-агенти можуть автоматично виконувати завдання. Дослідження показують, що у складних задачах вони частіше виникають «циклічні міркування». Галюцинації AI-агента можуть спричинити безкінечні цикли, часті виклики API, автоматичні помилки або виснаження ресурсів серверів.

  1. Роздуми про омара

OpenClaw — перший у світі омар у хвилі штучного інтелекту. Хоча він має багато проблем, цей омар символізує майбутнє AI.

За останні роки AI-революція почалася з ChatGPT, що зосереджена на діалогах і створенні контенту; потім настала ера Copilot, орієнтована на допомогу у роботі та підвищення продуктивності; тепер — ера автономних AI-агентів, здатних виконувати завдання самостійно. У моделі OpenClaw AI автоматично виконує складні кроки: розуміє завдання, розбиває цілі, викликає інструменти, об’єднує інформацію і виконує завдання. Користувачі більше не керують програмою безпосередньо — вони описують ціль, а AI розбиває її на підзадачі і виконує їх, хоча це несе ризики безпеки. Це новий етап у взаємодії людини і машини, нова революція AI.

На відміну від традиційних AI-програм, автономні AI-агенти мають більшу автономність. Якщо їх зламати, неправильно налаштувати або вони почнуть галюцинувати, це може призвести до помилок або навіть безпеки. Саме тому OpenClaw, попри популярність, викликав широку дискусію щодо безпеки і управління.

Загалом, побоювання щодо безпеки — тимчасові. Розвиток і вдосконалення AI-агентів — неминучий тренд. Як і з ChatGPT, що породила безліч подібних програм, з’явиться багато нових AI-агентів.

Можливо, незабаром настане ера, коли кожен «вирощуватиме омара». Омари смачні, але, насолоджуючись AI-розвагами, потрібно вчитися не потрапляти під їхні клешні.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити