a16z: Чому наступна мільярдна аудиторія AI отримуватиме доступ через мережі довіри

Автор: Сакіна Арсіва́ла, дослідник a16z; джерело: a16z crypto; переклад: Шоу Золотий фінанс

Висновки з YouTube: контент як геополітична зброя

Багато років тому я був керівником міжнародного пошукового продукту Google, а потім очолив міжнародну експансію YouTube, запустивши продукт у 21 країні всього за 14 місяців. Я займався не тільки локалізацією продукту, але й налагодженням місцевих партнерств у сфері контенту, шукаючи шляхи виходу з численних правових, політичних та ринкових пасток. Нещодавно я також відповідав за управління здоров’ям спільноти Twitch (довіра та безпека). У своїй кар’єрі я також заснував дві стартап-компанії.

Сьогоднішня сфера штучного інтелекту (ШІ) дивовижно нагадує ранні етапи зростання Google та YouTube. Моя кар’єра навчила мене одному факту: глобалізація - це не функція продукту, а геополітична гра. Найглибший урок полягає в тому, що просування каналів ніколи не є суто технічною проблемою. Зростання залежить від місцевих партнерів, культурних комунікаторів та довірених лідерів думок, які створюють містки між глобальними платформами та місцевими користувачами.

Я був свідком інциденту з блокуванням авторських прав GEMA в Німеччині: музична організація практично виключила всю країну з європейської програми просування YouTube. Я пережив кризу з арештами за богохульство в Таїланді: як зовнішній представник YouTube я ризикував бути заарештованим через контент на платформі, що вважався образливим для короля Таїланду, і навіть не міг транзитом проходити через цю країну. Я бачив, як Пакистан відключив інтернет по всій країні через блокування одного відео. Я також пам’ятаю, як у нашому офісі в Індії сталося фізичне насильство через конфлікт глобального алгоритму та місцевих релігійних табу.

Те, з чим ми насправді маємо справу, ніколи не є лише політичними або інфраструктурними проблемами, а бар’єрами довіри.

У кожному ринку завжди має бути хтось, хто спочатку понесе витрати, щоб з’ясувати, який контент безпечний, прийнятний і цінний, щоб користувачі могли долучитися. Ці витрати накопичуються, в результаті чого з часом формується податок на довіру: його спочатку сплачують невеликі групи, а потім всі спільно.

Сьогодні ті ж самі суперечності повторюються у сфері штучного інтелекту, лише обстановка стає більш серйозною, еволюція відбувається швидше, а наслідки стають більш очевидними. Нещодавно федеральний уряд США та Anthropic опинилися в безвихідній ситуації, що викликало широке обговорення; OpenAI стикається з дедалі більшою перевіркою через свої партнерства з державним сектором. Ми свідчимо зміну: прийнятність користувачів більше не залежить лише від практичності, ідеологічний вплив стає все більш помітним. У такому середовищі довіра є надзвичайно крихкою, і навіть здавалося б, незначний крах довіри може призвести до масового швидкого відтоку користувачів.

Google збільшує інвестиції в свою стратегію глибокої довіри, використовуючи знайомість користувачів з екосистемою Workspace та пошуку для виходу на ринок, але глобальна картина стає все більш розділеною. Жорсткі регуляторні червоні лінії ЄС, запекла гонка розвитку ШІ в Китаї та зростаючий націоналізм ШІ тримають увесь світ у стані підвищеної готовності.

Уроки 2026 року очевидні: інституційна довіра та культурне визнання тепер нерозривно пов’язані з самим продуктом. Без довіри як основи неможливо створити інтелектуальну операційну систему.

Це і є суверенні бар’єри — структурні межі, що виникають на стику глобального штучного інтелекту та місцевого контролю. З точки зору продукту це проявляється у більш прямій формі: бар’єри довіри.

Всі глобальні системи штучного інтелекту в кінцевому підсумку зіштовхнуться з цією стіною. На цій межі прийнятність користувачів більше не залежить від технічних можливостей, а від того, чи довіряють користувачі, інституції та уряди їй у своєму контексті.

Інтернет колись був безкордонним. Штучний інтелект — ні.

Кінець епохи дослідників

Перші мільярд користувачів штучного інтелекту — це були дослідники та технологічні оптимісти. Але епоха дослідників закінчилася. Останні три роки ми живемо в епоху інженерії підказок та цифрового алхімії, люди відкривають такі популярні застосунки, як ChatGPT, Claude, ніби відвідують цифрові святині, щоб на власні очі побачити чудеса генеративного інтелекту. У цю епоху єдиним важливим показником є здатність моделей: хто займає перше місце в останніх бенчмарках? Хто має найбільшу кількість параметрів?

Але з наближенням 2026 року вогнище епохи дослідників згасає. Ми більше не створюємо іграшки для допитливих, а переходимо до інтелектуальних операційних систем — тих невидимих, усюдисущих базових каналів, які забезпечують повсякденну діяльність індивідуальних підприємців у Сан-Паулу, Бразилія, та працівників охорони здоров’я в Джакарті, Індонезія.

Ці користувачі не є дослідниками, а практичними споживачами. Вони не хочуть спілкуватися з “привидом” у машині, їм потрібен інструмент, який допоможе вирішити різні проблеми в реальному житті. Це є справжнім моментом переходу для залучення наступного мільярда користувачів. І саме в цій не зовсім освоєній прикордонній зоні глобальна мрія Sillicon Valley про API зіштовхується з найжорстокішою реальністю цього часу: суверенними бар’єрами.

Основна зміна полягає в тому, що поширення штучного інтелекту більше не є лише питанням здатності моделей, а питаннямпоширення та довіри. Передові лабораторії продовжуватимуть підвищувати продуктивність моделей, але прихід наступного мільярда користувачів не залежить від того, чи отримує якась модель вищий бал у бенчмарку, а від того, що штучний інтелект досягає їх через установи, творців та спільноти, яким вони вже довіряють.

Реальність 2026 року: ШІ стає питанням національної інфраструктури

У 2026 році основною проблемою в галузі вже не буде підвищення інтелекту моделей, а отримання дозволів на доступ для моделей. Суверенні бар’єри — це межі, на яких зустрічаються загальний інтелект та національна ідентичність. Глядачи на глобальну ситуацію, ці бар’єри вже починають набувати чітких форм: вимоги до локалізації даних, національні програми обчислювальної потужності ШІ, а також проекти моделей, очолювані урядами в Індії, Об’єднаних Арабських Еміратах, Європі тощо. Початкові політики хмарної інфраструктури швидко еволюціонують у політики інтелектуального суверенітету. У межах цієї рамки держави відмовляються бути “даними колоніями”, вимагаючи, щоб системи ШІ, що обслуговують їх громадян, працювали в межах їх суверенних дата-складів, зберігаючи місцеву культуру та поважаючи національні кордони.

Коли ви бачите, як CEO Google (Сундар Пічаї), OpenAI (Сем Альтман), Anthropic (Даріо Амодеї), DeepMind (Деміс Хассабіс) з’являються на індійському саміті впливу штучного інтелекту 2026 року поруч з прем’єр-міністром Індії Моді, ви бачите реальне втілення суверенних бар’єрів. Візія M.A.N.A.V. (етичні системи, відповідальне управління, національний суверенітет, доступний ШІ, надійні системи), запропонована прем’єр-міністром Моді, посилає чіткий сигнал: якщо передові лабораторії намагатимуться безпосередньо охопити споживачів, їх зрештою викинуть з регулювання. А довіра є єдиною валютою, що дозволяє долати ці бар’єри.


Виклики зниження ефекту мережі та чому це змушує до нових стратегій

На відміну від соціальних платформ, де кожен новий користувач підвищує цінність для всіх інших, цінність штучного інтелекту в значній мірі є локалізованою. Моя тисячна підказка не зробить систему більш цінною для вас. Хоча “дані в обертанні” можуть оптимізувати моделі, досвід користувача завжди є індивідуальним, а не соціальним. ШІ є приватним інструментом, який може мати емоційний відтінок, але його суть — практичний інструмент.

Це створює структурну проблему: ШІ не може спиратися на ефект мережі, який дозволив попередньому поколінню платформ розвинутися. За відсутності первинної соціальної графіки індустрія може лише потрапити в цикл високих витрат, постійно переслідуючи ранніх користувачів, активних гравців та технологічну еліту. Ця стратегія працювала в епоху дослідників, але не може бути масштабованою для охоплення наступних двох мільярдів користувачів.

Ще важливіше, ця модель втрачає свою ефективність перед суверенними бар’єрами. Оскільки коли ефект мережі є слабким, довіра не виникає самостійно, а повинна бути привнесена ззовні.

Перехід: від ефекту мережі до ефекту довіри

Якщо штучний інтелект не може спиратися на ефект соціальної мережі для популяризації, він повинен покладатися на іншу силу: мережу довіри. Це ключова зміна:

Від залучення користувачів до наділення посередників

YouTube зміг масштабуватися, оскільки скористався вже існуючою мережею людської довіри. ШІ також повинен діяти аналогічно. Натомість того, щоб намагатися встановити прямі зв’язки з мільярдами користувачів, стратегією перемоги має бути:

  • Надання можливостей тим, хто вже має користувацькі зв’язки;

  • Використання їх вже накопиченої довіри;

  • Розподіл інтелектуальних можливостей через ці канали.

Чому це критично важливо

У світі, сформованому суверенними бар’єрами:

  • Канали розподілу обмежені;

  • Модель прямих зв’язків з користувачами є крихкою;

  • Довіра є локалізованою, а не глобалізованою.

Без потужного ефекту мережі штучний інтелект не зможе досягти масштабування, він повинен проникати через довіру. Штучний інтелект не має ефекту мережі, він має ефект довіри.

Рішення: ера посередників

Як YouTube зміг утвердитися на міжнародному ринку? Не завдяки кращому програвачу, а не просто локалізації тексту інтерфейсу. Ключ до перемоги — стати платформою номер один для тих, хто вже має локальну довіру. У кожному ринку точка прийняття користувачів не є YouTube, а є ідентифікаційними якорями — тими особами та громадами, які вже володіють культурною владою:

  • Фан-сайти Боллівуду збирають рідкісні моменти з фільмів Шахруха Хана для громади емігрантів у Дубаї

  • Американські аніме-ентузіасти створюють глибокий контент, який не охоплюється основними ЗМІ

  • Місцеві комедійні актори, вчителі та творці змішаних відео перетворюють глобальний контент на форму, що відповідає культурному сприйняттю

Ці творці не просто завантажують відео, вони інтерпретують інтернет для аудиторії, виступаючи як посередники довіри, створюючи мости між закордонними платформами та місцевими користувачами. Успіх YouTube полягає в тому, що він став невидимою інфраструктурою, що підтримує ці ідентифікаційні якорі.

Ігнорована основна логіка: пряма модель споживача зустрічається з суверенними бар’єрами

Сьогодні більшість компаній ШІ все ще дотримуються мислення прямого виходу на споживача: створення кращих моделей → представлення у формі чату → безпосереднє залучення користувачів.

Ця модель короткостроково ефективна, але не витримає довго. Бо на ринках з високими бар’єрами користувачі не прийматимуть нові технології безпосередньо, а прийматимуть їх через людей, яким довіряють.

Глобальна експансія YouTube не відбулася шляхом переконання мільярдів користувачів поодинці, а наданням можливостей тим, хто вже завоював довіру аудиторії. Це істинний зміст невидимої інфраструктури: ви не володієте зв’язками з користувачами, ви підтримуєте зв’язки з користувачами. А на рівні масштабування ця модель має сильніший захист.

Перехід від чату до інтелектуальних агентів: надання можливостей посередникам довіри

Це і є ключова зміна, що веде від інтерфейсу чату до інтелектуальних агентів. Чат — це інструмент для особистого використання, тоді як інтелектуальні агенти — це важелі для посередників. Якщо застосувати концепцію, висловлену керівником Anthropic Амі Ворою — “створюйте продукти для найвтомленіших людей”, то в багатьох ринках ці люди є трансформаторами довіри:

  • Освітні робітники, які адаптують закордонні концепції

  • Підприємці, які справляються з місцевими бюрократичними системами

  • Лідери спільнот, які вирішують проблеми інформаційного перевантаження

Шлях до перемоги полягає в вирішенні їхніх затримок довіри — тобто прірви між глобальними інтелектуальними можливостями та місцевими практичними сценаріями. Це потребує реальної системи підтримки інтелектуальних агентів:

  • Для освітніх працівників: Sora / GPT-5.2 переписує програми курсів — замінюючи аналогії з американським футболом на крикет, зберігаючи основний зміст, але адаптуючи до місцевої культури.

  • Для індивідуальних підприємців: інтелектуальні агенти можуть не тільки розуміти податкові форми Сінгапуру, але й заповнювати та подавати їх через місцеві API.

  • Для лідерів спільнот: надання функції пам’яті контексту для WhatsApp — виділення структурованих дій з десяти тисяч повідомлень, зберігаючи корисну інформацію та підтримуючи норми спільноти.

Основний принцип, на якому базується ця модель: вирішення затримок довіри на останній милі

Щоб зрозуміти, чому ця модель може бути масштабованою, необхідно зрозуміти затримки довіри. У багатьох регіонах світу вузьким місцем є не канали доступу до технологій, а час, ризик та невизначеність, необхідні для встановлення довіри. Популяризація технологій не залежить від реклами, а від рекомендацій.

Помилка більшості компаній ШІ полягає в тому, що вони намагаються сплатити податок на довіру через бренд, розподіл або покращення продукту, але довіра не може бути масштабованою таким чином.

Найшвидший шлях — це передати податок на довіру людям, які вже взяли на себе ці витрати — місцевим творцям, освітянам та операторам. Вони вже випробували своїх аудиторій, зрозуміли, що працює, що не працює, що є справді важливим у місцевих умовах, і взяли на себе ризики для аудиторії.

Надаючи можливості цим посередникам довіри:

  • Витрати на залучення користувачів наближаються до нуля: розподіл спирається на існуючу мережу довіри;

  • Цінність життєвого циклу користувачів зростає: практичні функції відповідають місцевим потребам, а не є універсальними;

  • Швидкість популяризації зростає: довіра успадковується без необхідності накопичувати її з нуля.

Компанії отримають безкоштовну глобальну команду з продажу, чия надійність, ефективність та глибина коренів перевищують будь-яку централізовану стратегію просування. Ви більше не створюєте продукт для користувачів, ви надаєте важелі тим, кому користувачі вже довіряють.

Це шлях глобальної експансії YouTube, а також єдиний спосіб, яким штучний інтелект може подолати суверенні бар’єри.

Суверенне дата-склад: геополітичний захист

Технологічний оптимізм Марка Андресена врешті-решт не полягає в протистоянні регулюванню, а в тому, щоб перетворити регулювання на продукт. Конкуренція з такими проектами, як DeepSeek у Китаї та Kimi, не залежить від ігнорування кордонів, а від контролю над дата-складом.

Що таке суверенне дата-склад? Це пріоритетна локалізована інстанція моделі, що працює в межах цифрової публічної інфраструктури (DPI) країни.

  • Геополітичний захист: надаючи Індії, Бразилії та іншим країнам цифровий суверенітет над моделями, вагами та даними, ми в корені змінюємо структуру контролю. Інтелектуальні можливості більше не керуються закордонними платформами, а управляються самостійно в межах країни. Це не пряме “блокування” зовнішніх суперників, а суттєве підвищення їх вартості впливу, зменшення залежності від зовнішніх джерел, зменшення ризику контролю, витягування даних або одностороннього втручання.

  • Ідентифікаційні якорі: глибоке зв’язування моделі з місцевою культурою та правовими реаліями, створення захисту, який не може бути подоланим загальним штучним інтелектом.

  • Зворотний зв’язок: вирішення дуже локалізованих деталей, таких як ліцензія на податки в Малайзії, не є відволіканням, а є прискорювачем моделі. Це надає базовій моделі культурну гнучкість, дозволяючи їй завжди підтримувати світовий рівень інтелекту.

Тут існує справжня суперечність. Візія штучного інтелекту полягає у досягненні загального інтелекту, але тенденція до суверенізації штовхає всю екосистему до фрагментації. Якщо кожна країна створить власний технологічний стек, ми зіткнемося з ризиком несумісності систем, неоднорідності стандартів безпеки та повторного будівництва ресурсів. Виклики для передових лабораторій полягають не лише в підвищенні масштабу інтелекту, а й у розробці архітектури, що може реалізувати локалізоване управління, не знижуючи глобальних переваг у співпраці.

Три структурні зміни ери посередників

1. Розподіл штучного інтелекту увійде в існуючі мережі довіри

Штучний інтелект не зможе масштабуватися через незалежні програми, а буде вбудований у платформи миттєвого обміну повідомленнями, робочі процеси творців, освітні системи та інфраструктуру малих і середніх підприємств — адже довіра вже встановлена в цих сценаріях. За відсутності сильного ефекту мережі розподіл повинен базуватися на вже існуючих міжособистісних мережах.

2. Національна інфраструктура ШІ стане стандартом

Уряди країн все більше вимагатимуть локалізації моделей, суверенності обчислювальної потужності та підпорядкування регуляторному контролю, що пришвидшить реалізацію архітектури суверенного дата-складу.

3. Економіка творців переключиться на економіку інтелектуальних агентів

Творці більше не будуть лише виробниками контенту, вони почнуть впроваджувати інтелектуальних агентів для виконання реальних завдань у своїх громадах. Ці агенти стануть продовженням надійних особистостей, успадковуючи їхню репутацію і передаючи інтелектуальні можливості через мережу довіри.

Звичайно, також існує ймовірність іншого майбутнього: з’явиться асистент, який займе абсолютну домінуючу позицію, глибоко вбудований у операційні системи, браузери та пристрої, безпосередньо встановлюючи зв’язок між користувачами та моделями, повністю оминаючи посередників. Якщо це станеться, рівень довіри буде безпосередньо вбудований у цього асистента.

Але історичний досвід вказує на більш різноманітну структуру. Навіть найпотужніші платформи — від мобільних операційних систем до соціальних мереж — зрештою досягають зростання завдяки екосистемі. Інтелектуальні можливості можуть бути загальними, але довіра завжди локалізована. Незалежно від того, яка архітектура врешті-решт переможе, основні виклики не зміняться: популяризація ШІ більше не є лише питанням моделей, а питанням розподілу та довіри.

Висновок: нішева ринок є справжнім глобальним ринком

Найбільше хибне уявлення епохи дослідників — це віра в те, що інтелект є стандартизованим товаром — єдиним глобальним API, який демонструє однакові результати в конференц-залах Манхеттена та селах Карнатаки. Суверенні бар’єри відкривають більш жорстоку правду: інтелект може бути універсальним, але його популяризація — ні.

Державні та місцеві установи не хочуть чорного ящика зовнішньої системи, вони хочуть контролю, можливостей адаптації до сценаріїв і права формувати інтелект у межах своїх кордонів. Вони не хочуть готових застосунків, а шукають базові канали — інфраструктуру, системи безпеки та обчислювальну потужність, які дозволять їх громадянам самостійно будувати.

Логіка зростання 2026 року більше не полягає у пошуку єдиного універсального користувацького досвіду, а в адаптивності продукту — дозволяючи інтелекту відповідати місцевим умовам, регулюванню та культурі, не втрачаючи основних можливостей. Якщо ми продовжимо безпосередньо переслідувати глобальних споживачів, ми завжди залишимося поверхневою оболонкою — крихкою, замінною, і знову пройдемо через ті ж удари, які я пережив у YouTube.

Але коли ми зосередимося на наданні можливостей посередникам, модель кардинально зміниться: від чату до інтелектуальних агентів, від переконання користувачів до надання можливостей посередникам довіри, від протистояння регулюванню до перетворення регулювання на бар’єр.

Масштабування штучного інтелекту не залежить від моделей, а від довіри.

Переможцем у гонці штучного інтелекту не стане компанія з найрозумнішими моделями, а та, яка зможе підвищити можливості місцевих героїв — вчителів, бухгалтерів, лідерів спільнот — в десять разів. Адже зрештою інтелект передається в системі, а популяризація відбувається серед людей.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити