Бар'єр довіри: чому наступна мільярдна аудиторія AI приєднається через мережу довіри

Автор: Sakina Arsiwala, дослідниця у a16z; джерело: a16z crypto; переклад: Shaw 金色财经

Уроки YouTube: контент — це геополітична зброя

Багато років тому я працював/працювала на посаді керівника міжнародних продуктів Google Search, а згодом очолив/очолила роботу з міжнародного розширення YouTube, за якісь 14 місяців вивівши продукт у 21 країну. Я робив/робила не лише локалізацію продукту — я вибудовував/вибудовувала партнерства з локальним контентом, шукаючи шлях крізь безліч мін у сферах права, політики та доступу на ринки. Нещодавно я також відповідав/відповідала за здоров’я спільноти (довіра та безпека) на Twitch. Протягом кар’єри я також заснував/заснувала дві стартап-компанії.

Нині в царині штучного інтелекту (AI) є разючі паралелі з фазою зростання Google і YouTube у ті ранні роки. Мій професійний шлях дав мені зрозуміти одну істину: глобалізація — це не функція продукту, а геополітичне суперництво. Найглибший урок полягає в тому, що канали промоції ніколи не були суто технічною проблемою. Зростання спирається на локальних партнерів, культурних посередників і авторитетних у спільноті інфлюенсерів, які вибудовують міст між глобальними платформами та локальними користувачами.

Я пережив/пережила подію з німецькою GEMA, коли права на музику фактично спричинили заборону: музична організація з авторських прав майже виштовхнула цілу країну з YouTube у програмі панєвропейського промо. Я пережив/пережила хвилювання навколо наказу про арешт за неповагу в Таїланді: як керівник відділу зовнішніх справ YouTube я ризикував/ризикувала бути заарештованим/заарештованою через контент на платформі, який було визнано такими, що ображають короля Таїланду, і навіть не мав/не мала можливості проїхати через цю країну. Я бачив/бачила, як Пакистан відрізав інтернет по всій країні лише через заборону одного відео. І я пам’ятаю, як у нашому офісі в Індії сталися напади, бо глобальні алгоритми та локальні релігійні табу вступили в конфлікт.

Те, з чим нам справді потрібно розбиратися, завжди виходить за межі лише політики чи інфраструктури — це бар’єр довіри.

У кожному ринку має знайтися хтось, хто спершу понесе витрати, уточнить, який контент безпечний, прийнятний і має цінність — і лише тоді користувачі підключаються. Ці витрати постійно накопичуються, і з часом виникає податок на довіру: спочатку його платять невеликі групи, а потім він розподіляється між усіма.

Сьогодні та сама суперечність знову проявляється в індустрії AI — лише ситуація суворіша, зміни швидші, а вплив помітніший. Нещодавно уряд США на федеральному рівні та Anthropic потрапили в глухий кут, що спричинило палкі дискусії в суспільстві; OpenAI натомість стикається з дедалі більшою перевіркою через партнерства з державним сектором. Ми спостерігаємо зміну: прийняття користувачами більше не залежить лише від практичної корисності — ідеологічний вплив стає дедалі відчутнішим. У такому середовищі довіра дуже крихка: одна, здавалося б, дрібна «аварія» довіри може спричинити масову і швидку втрату користувачів.

Google нарощує інвестиції у власну стратегію глибокої довіри: за допомогою знайомості користувачів із Workspace та пошуком у наявній екосистемі він прагне «зшити» ринки, але глобальний ландшафт дедалі більше розколюється. Жорсткі регуляторні «червоні лінії» ЄС, напружена конкуренція Китаю в гонці розвитку AI та дедалі агресивніший AI-націоналізм змушують увесь світ тримати високий рівень настороженості.

Уроки 2026 року очевидні: довіра інституцій і культурне визнання тепер нерозривно пов’язані з самим продуктом. Без довіри як фундаменту неможливо побудувати інтелектуальну операційну систему.

Ось це і є бар’єр суверенітету — структурна межа, де стикаються глобальний AI та локальний контроль. А з погляду продукту це набуває більш прямої форми: бар’єр довіри.

Усі спроби розширення глобальних систем AI зрештою впираються в цю стіну. На цій критичній точці прийняття користувачами більше не визначається технічними можливостями — воно залежить від того, чи довіряють йому користувачі, інституції та уряди у власному контексті.

Інтернет колись був без кордонів. AI — не буде.

Кінець епохи дослідників

Перші мільярд користувачів AI були дослідниками та оптимістами щодо технологій. Але епоха дослідників уже завершилась. За останні три роки ми жили в епосі інженерії промптів і цифрової алхімії: люди відкривали ChatGPT, Claude та інші популярні застосунки — наче прямували до цифрових храмів — і своїми очима спостерігали дива генеративного інтелекту. У цій епосі єдиним справді важливим показником була здатність моделей відповідати останнім бенчмаркам: хто очолює найновіші тести? чия кількість параметрів найбільша?

Але з приходом 2026 року багаття епохи дослідників починає згасати. Ми більше не створюємо іграшки для цікавих — ми переходимо до інтелектуальних операційних систем: тих невидимих, всюдисущих базових каналів, які дають енергію для щоденної роботи індивідуальних підприємців у Сан-Паулу, Бразилія, і працівників громадської медицини в Джакарті, Індонезія.

Ці користувачі — не дослідники, а люди, які шукають практичну користь. Вони не хочуть розмовляти з «привидами» всередині машин — вони просто хочуть інструмент, який допоможе їм долати реальні перешкоди у повсякденному житті. Саме це — момент справжнього розриву, коли можна «перестрибнути» до наступного мільярда користувачів. І саме в цій зоні, яку ще не повністю освоєно, «глобальна мрія про API», якою грезить Силіконова долина, зіткнулася з найжорстокішою реальністю цієї епохи: бар’єром суверенітету.

Ключова зміна полягає в тому, що: поширення AI більше не є насамперед проблемою потужності моделей, а є проблемоюпоширенняі довіри. Передові лабораторії й надалі підвищуватимуть якість моделей, але прихід наступного мільярда користувачів відбувається не тому, що та чи інша модель набрала більше балів на бенчмарках. Це тому, що AI донесено до них через інституції, творців і спільноти, яким вони вже давно довіряють.

Реальність 2026 року: AI стає питанням національної інфраструктури

У 2026 році головний виклик індустрії більше не полягає в тому, щоб зробити моделі розумнішими — завдання тепер у тому, щоб модельотримала дозвіл на доступ. Бар’єр суверенітету — це межа, де стикаються загальний інтелект і національна ідентичність. Якщо дивитися на світ, то контури цього бар’єру вже вимальовуються: вимоги до локалізації даних, національні програми AI-в обчислювальні потужності та проєкти моделей, які ініціюють уряди Індії, ОАЕ, Європи тощо. Спочатку політика хмарної інфраструктури стрімко перетворюється на політику інтелектуального суверенітету. У цій рамці країна відмовляється бути «територією даних-колоній» і вимагає, щоб інтелектуальні системи, які обслуговують її громадян, працювали в межах суверенних дата-складів країни, успадковували місцеву культуру та поважали межі держави.

Коли ви бачите, як генеральні директори Google (Sundar Pichai), OpenAI (Sam Altman), Anthropic (Dario Amodei) і DeepMind (Demis Hassabis) виходять на сцену разом із прем’єр-міністром Індії Моді на Саміті впливу індійського AI у 2026 році, ви бачите справжнє виявлення бар’єру суверенітету. Візія M.A.N.A.V., запропонована прем’єром Моді (морально-етична система, підзвітне управління, національний суверенітет, AI для загального блага, довірені системи), надсилає чіткий сигнал: якщо передові лабораторії намагатимуться напряму «зайняти» ринок, йдучи прямо до споживача, — їх зрештою витіснять регулятори. А довіра — це єдина платіжна валюта, щоб перетинати ці межі.


Проблема ослаблення мережевих ефектів і чому це змушує до нової стратегії

На відміну від соцплатформ, де кожен новий користувач підвищує цінність для всіх інших, цінність AI значною мірою є локалізованою. Перша тисяча промптів, які я надіслав/надіслала, не зробить систему напряму більш цінною саме для вас. Звісно, «двигун даних» може оптимізувати модель, але користувацький досвід завжди персоналізований, а не соціальний. AI — це приватний інструмент; він може мати емоційне забарвлення, але його ядро — практичний інструмент.

Звідси виникає структурна проблема: AI не може покладатися на мультиплікативні мережеві ефекти соціальних мереж, які підвели попередню хвилю до зростання. За відсутності нативної соціальної «карти» розповсюдження індустрія може лише потрапити в цикли з високими витратами: постійно ганятися за ранніми користувачами, важкими користувачами та технологічною елітою. Ця стратегія працює в епоху дослідників, але не масштабуватиметься для наступних двох мільярдів користувачів.

І ще важливіше: така модель повністю провалиться перед бар’єром суверенітету. Бо коли мережеві ефекти слабкі, довіра не виникає сама — її треба приносити іззовні.

Трансформація: від мережевих ефектів до ефектів довіри

Якщо AI не може забезпечити поширення через мережеві ефекти, тоді потрібно опертися на іншу силу: мережі довіри. Це принципова зміна:

Від залучення користувачів до розширення можливостей посередників

YouTube здатен масштабується, саме тому що спирається на наявну людську мережу довіри. AI має робити так само. Замість того щоб намагатися встановити прямий зв’язок із мільярдами користувачів, виграшна стратегія має бути такою:

  • Надати розширення можливостей тим, хто вже має стосунки з користувачами;

  • Використати довіру, яку вони вже накопичили;

  • Розповсюджувати інтелектуальні можливості через ці канали.

Чому це критично важливо

У світі, де бар’єр суверенітету формує правила:

  • Канали розповсюдження обмежені;

  • Прямий підхід «напряму до користувача» крихкий;

  • Довіра локалізована, а не глобалізована.

Без потужних мережевих ефектів AI не зможе досягти масштабування силою. Тому потрібно проникати через довіру. У AI немає мережевих ефектів — у нього є ефекти довіри.

Рішення: настає епоха посередників

Як саме YouTube закріпився на міжнародних ринках? Це не завдяки кращому програвачу і не лише через просту локалізацію текстів в інтерфейсі. Ключ до перемоги — стати платформою №1 для тих людей у кожному ринку, які вже мають локальну довіру. У кожному ринку точка старту прийняття користувачами — не сам YouTube, а «якорі ідентичності»: ті люди та спільноти, які вже контролюють культурний дискурс:

  • Фан-сторінки з Боллівуду збирають для емігрантської спільноти в Дубаї рідкісні уривки з фільмів із Шахрукхом Кханом

  • Американські фанати аніме формують екосистему глибокого контенту, яку основні медіа раніше не охопили

  • Місцеві коміки, вчителі та автори змішаних монтажів перетворюють глобальний контент у форми, узгоджені з культурним сприйняттям

Ці творці не просто завантажують відео: вони інтерпретують для своєї аудиторії інтернет, виконують роль посередників довіри й будують міст між заморськими платформами та локальними користувачами. Успіх YouTube полягає в тому, що він став невидимою інфраструктурою, яка підтримує ці «якорі ідентичності».

Незамічена базова логіка: прямий режим «напряму до споживача» стикається з бар’єром суверенітету

Нині більшість AI-компаній мислять у парадигмі «direct-to-consumer»: створюйте кращу модель → подавайте її через чат-інтерфейс → отримуйте користувачів напряму.

Ця модель працює короткостроково, але її важко зробити довгостроковою. Бо на ринках із високим тертям користувачі не приймають нову технологію напряму — вони приймають технологію через людей, яким довіряють.

Глобальна експансія YouTube не полягає в тому, щоб переконувати по одному десятки мільярдів користувачів — вона полягає в тому, що надає розширення можливостей тим, хто вже здобув довіру аудиторії. Саме в цьому полягає справжній зміст невидимої інфраструктури: ви не володієте стосунками з користувачами — ви надаєте їм опору. А на рівні масштабування така модель має сильніший рів укріплення.

Від чату до агентів: розширення можливостей посередників довіри

Це саме ключовий перехід: від чат-інтерфейсу до агентів. Чат — це інструмент для окремої людини, а агенти — важіль для посередників. Якщо застосувати ідею екзекутйва Anthropic Амі Волара — «створити продукт для найвтомленіших людей», то в багатьох ринках це саме ті, хто є конвертерами довіри:

  • Освітяни, що адаптують ідеї з-за кордону

  • Підприємці, які відповідають за місцеві бюрократичні системи

  • Лідери спільноти, які розбираються з інформаційним перевантаженням

Спосіб перемогти — вирішити їхню затримку довіри — тобто розрив між глобальними інтелектуальними можливостями та локальними практичними сценаріями. Для цього потрібна прикладна система підтримки агентів:

  • Для освітян: Sora / GPT-5.2 перестворюють навчальні програми — замінюють аналогію американського футболу на крикет, зберігають основний зміст і водночас підлаштовуються під місцеву культуру.

  • Для індивідуальних підприємців: агенти можуть не лише розтлумачити податкові бланки в Сінгапурі, а й завершити заповнення та подання через локальні API.

  • Для лідерів спільнот: додати WhatsApp функцію запам’ятовування контексту — із десяти тисяч повідомлень витягнути структуровані пункти дій, зберегти корисну інформацію та підтримувати норми спільноти.

Ключ до працюючої моделі: вирішення затримки довіри на «останній милі»

Щоб зрозуміти, чому ця модель здатна масштабуватися, потрібно зрозуміти затримку довіри. У багатьох частинах світу вузьке місце — не доступ до технологій, а час, ризики та невизначеність, потрібні для побудови довіри. Технології поширюються не рекламою, а рекомендаціями.

Типова помилка більшості AI-компаній — спробувати «сконцентрувати» податок на довіру через бренд, дистрибуцію чи доведення продукту до досконалості, але довіра не масштабується таким способом.

Найшвидший шлях — віддати податок на довіру назовні тим, хто вже взяв на себе ці витрати — укоріненим у місцевості авторам, освітянам і операторам. Вони вже виконували перевірку на своїй аудиторії, розуміючи, що працює, що не працює і що справді важливе в конкретних локальних умовах. Вони беруть на себе ризики за аудиторію.

Надаючи розширення можливостей цим посередникам довіри:

  • Вартість залучення користувачів прямує до нуля: дистрибуція спирається на наявну мережу довіри;

  • Зростає життєва цінність користувача: практичні функції відповідають місцевим потребам, а не стандартизуються «під усіх»;

  • Прискорюється темп поширення: довіра переходить напряму, без накопичення з нуля.

Компанія фактично отримує «на зброї» глобальну команду продажів, за яку не треба платити. Її довіра, ефективність і глибина укорінення значно перевищують будь-які централізовані стратегії промоції. Вам більше не потрібно будувати продукт для користувача — натомість ви надаєте важелі для людей, яким користувачі вже довіряють.

Це й є шлях глобальної експансії YouTube — і єдиний спосіб AI перетнути бар’єр суверенітету.

Суверенний дата-склад: географічний рів стійкості

Технологічний оптимізм, який просував Марк Андерсен, зрештою має інший фініш — не протистояння регуляторним органам, а «продуктизація» регулювання. У конкурентній боротьбі з китайським глибоким пошуком (DeepSeek) і «темною стороною Місяця» (Kimi) перемога досягається не ігноруванням кордонів, а контролем дата-складів.

Що таке суверенний дата-склад? Це локалізований екземпляр із пріоритетним розміщенням моделі, який працює в межах національної системи цифрової публічної інфраструктури (DPI).

  • Географічний рів стійкості: даючи цифровий суверенітет таким країнам як Індія, Бразилія, щодо моделей, ваг і даних, ми змінюємо розподіл контролю принципово — з кореня. Інтелектуальні можливості більше не посередничуються закордонними платформами, а самокеруються всередині кордонів. Це не пряме «блокування» зовнішніх опонентів, а різке підвищення вартості їхнього впливу, зменшення зовнішньої залежності та звуження ризиків щодо контролю, вилучення даних або одностороннього втручання.

  • Якорі ідентичності: глибоко пов’язати модель із місцевою культурою та юридичною реальністю, вибудовуючи «ров», який універсальний AI не зможе подолати.

  • Зворотні цикли: усунення надзвичайно локальних деталей, як-от дозвіл на податки в Малайзії, — це не відволікання, а «прискорювач» моделі. Це дає базовій моделі культурну гнучкість, щоб вона завжди залишалась на рівні найкращого інтелекту у світі.

Тут є реальні суперечності. Візія AI — реалізувати загальний інтелект, але тенденція до суверенізації штовхає весь екосистемний простір до фрагментації. Якщо кожна країна побудує власний технічний стек, ми зіткнемося з ризиком, що системи не сумісні одна з одною, стандарти безпеки різняться, а ресурси дублюють будівництво. Виклик передових лабораторій — не лише масштабування інтелекту, а створення архітектури, яка дозволяє і локальний контроль, і при цьому не послаблює переваги глобальної координації можливостей.

Три структурні зрушення епохи посередників

1. Розподіл AI увійде в наявні мережі довіри

AI не буде масштабуватися через автономні застосунки. Він вбудовуватиметься у платформи миттєвих повідомлень, робочі процеси творців, освітні системи та інфраструктуру для малих і мікропідприємств — бо довіра вже створена в цих сценаріях. За відсутності сильних мережевих ефектів розповсюдження має спиратися на наявні людські мережі.

2. Національна AI-інфраструктура стане стандартом

Уряди різних країн дедалі частіше вимагатимуть, щоб ключові AI-системи виконували локальне розгортання моделей, будували суверенні обчислювальні потужності або проходили регуляторні перевірки. Це пришвидшить впровадження архітектури суверенних дата-складів.

3. Економіка творців перейде в економіку агентів

Творці вже не просто вироблятимуть контент: вони розгорнуть агентів і виконуватимуть реальні задачі для власних спільнот. Ці агенти стануть продовженням довірених індивідів, успадковуючи їхню репутацію, і передаватимуть інтелектуальні можливості через мережі довіри.

Звісно, існує і інша можливість майбутнього: поява асистента, який домінуватиме абсолютно, глибоко вбудований в операційні системи, браузери та пристрої, який напряму встановлює зв’язок між користувачем і моделлю, повністю обходячи посередників. Якщо так станеться, довіра буде вбудована безпосередньо в цього асистента.

Але історичний досвід вказує на більш різноманітний ландшафт. Навіть найбільш домінантні платформи — від мобільних операційних систем до соціальних мереж — зрештою теж зростають завдяки екосистемі. Можливо, інтелект буде універсальним, але довіра завжди локалізована. Яка б архітектура не перемогла врешті, головний виклик не зміниться: поширення AI більше не є насамперед проблемою моделей. Це проблема дистрибуції та довіри.

Висновок: нішеві ринки — це справді глобальні ринки

Найбільша помилка епохи дослідників — вірити, що інтелект є стандартизованим товаром: один-єдиний глобальний API, який поводиться однаково — у манхеттенських конференц-залах і в селах Катнакапатії. Бар’єр суверенітету розкриває більш жорстоку правду: інтелект може бути універсальним, але поширення — ні.

Державні й місцеві інституції не хочуть «чорного ящика» із зовнішньої системи. Вони хочуть мати контроль, здатність підлаштовувати сценарії та право формувати інтелект у межах власної території. Їм потрібні не готові застосунки, а базові канали — інфраструктура, системи безпеки й обчислювальні потужності, щоб громадяни країни могли самостійно будувати.

Логіка зростання у 2026 році полягає вже не в пошуку набору універсального user experience, а в продуктовій гнучкості: щоб інтелект адаптувався до локальних сценаріїв, регулювання й культури, не втрачаючи ключових можливостей. Якщо ми й надалі напряму женемося за глобальним споживачем, ми залишимося лише на рівні зовнішнього шару — крихкого, замінного — і повторимо всі удари, з якими я зіткнувся/зіткнулася в YouTube.

Але коли ми переходимо до розширення можливостей посередників, модель повністю змінюється: від чат-інтерфейсу до агентів; від переконання користувача до розширення можливостей посередників довіри; від протистояння регулюванню до перетворення регулювання на рів стійкості.

Масштабування AI не залежить від моделей — воно залежить від довіри.

Переможці в гонці AI — це не компанії з найрозумнішою моделлю, а ті, кому вдається підняти в 10 разів можливості місцевих героїв — учителів, бухгалтерів, лідерів спільнот. Бо зрештою інтелект передається в системі, а поширення відбувається в людях.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити