Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Барьер доверия: почему следующая миллиардная аудитория ИИ получит доступ через сеть доверия
Автор: Sakina Arsiwala, исследователь в a16z; источник: a16z crypto; перевод: Shaw Золотые финансовые новости
Уроки YouTube: контент — это геополитическое оружие
Много лет назад я занимал должность руководителя международного поискового продукта в Google, а затем отвечал за международную экспансию YouTube — всего за 14 месяцев мы вывели продукт в 21 страну. Я занимался не только локализацией продукта, но и выстраивал партнерства по локальному контенту, находя выход в лабиринте правовых, регуляторных и рыночных ограничений. Недавно я также отвечал за управление здоровьем сообщества (доверие и безопасность) в Twitch. За свою карьеру я также основал две стартап-компании.
Сегодня в сфере искусственного интеллекта (AI) наблюдается поразительное сходство с ранними этапами роста Google и YouTube. Моя карьера помогла мне осознать одну вещь: глобализация — это не функция продукта, а геополитическое соперничество. Самый глубокий урок заключается в том, что продвижение каналов никогда не было чисто технической задачей. Рост опирается на локальных партнеров, специалистов по культурной коммуникации и заслуживающих доверия лидеров мнений сообщества — именно они строят мост между глобальными платформами и локальными пользователями.
Я пережил инцидент с блокировкой авторских прав GEMA в Германии: музыкальная организация по защите прав практически лишила всю страну возможности участвовать в общеевропейском плане продвижения YouTube. Я пережил бурю вокруг ордера на арест за неуважение в Таиланде: как руководитель по внешним связям YouTube, я сталкивался с рисками задержания из‑за контента на платформе, который был расценен как оскорбление короля Таиланда, и даже не мог проезжать через эту страну. Я видел, как Пакистан отключал интернет по всей стране, чтобы заблокировать одно видео. И я помню, как из‑за конфликта между глобальными алгоритмами и местными религиозными табу нашу команду в Индии подвергли нападению.
Нам действительно нужно решать — это никогда не просто вопрос политики или инфраструктуры, а барьер доверия.
На каждом рынке должен быть кто‑то, кто первым понесет издержки, разберется, какие типы контента безопасны, приемлемы и ценны — и только тогда пользователи подключаются. Эти издержки накапливаются, и со временем формируется своего рода налог на доверие: сначала его платит небольшая группа, а затем расходы распределяются между всеми.
Сегодня тот же конфликт вновь воспроизводится в сфере искусственного интеллекта — но обстановка еще жестче, изменения происходят быстрее, а влияние заметнее. Федеральное правительство США и Anthropic в последнее время увязли в тупике, что вызвало бурные публичные обсуждения; OpenAI же из‑за сотрудничества с государственным сектором сталкивается с растущим числом проверок. Мы наблюдаем переход: готовность пользователей больше не определяется только практической полезностью — идеологическое влияние все глубже. В такой среде доверие очень хрупкое: один, казалось бы, небольшой обвал доверия может привести к массовому и быстрому оттоку пользователей.
Google все больше инвестирует в свою стратегию глубокого доверия, используя знакомство пользователей с Workspace и экосистемой поиска для «стыковки» рынков, но глобальная картина все сильнее раскалывается. Жесткие регуляторные красные линии ЕС, ожесточенная гонка Китая за развитие AI, а также усиливающийся AI‑национализм заставляют весь мир сохранять высокую настороженность.
Выводы 2026 года очевидны: организационное доверие и культурное признание теперь уже неразрывно связаны с самим продуктом. Без доверия как основы невозможно построить умную операционную систему.
Это и есть суверенный барьер — структурная граница между глобальным AI и локальным управлением. А с точки зрения продукта он проявляется в более прямом виде: барьер доверия.
Любое расширение всех глобальных AI‑систем в итоге упрется в эту стену. На этом критическом этапе готовность пользователей больше не зависит от технических возможностей — она зависит от того, доверяют ли пользователи, организации и правительства этому в рамках своего собственного контекста.
Интернет был без границ. Искусственный интеллект — нет.
Закат эпохи первооткрывателей
Первые миллиард пользователей AI были «первооткрывателями» и оптимистами‑технарями. Но эпоха первооткрывателей уже закончилась. За последние три года мы жили в эпоху инженерии промптов и цифровой алхимии: люди открывали ChatGPT, Claude и другие популярные приложения, как будто входили в цифровые святилища, и собственными глазами наблюдали чудо генеративного интеллекта. В ту эпоху единственный по‑настоящему важный показатель — это способность модели соответствовать (или превосходить) эталон: кто занял вершину в самых новых бенчмарках? у кого больше параметров?
Но в 2026 году пламя костра эпохи первооткрывателей гаснет. Мы больше не делаем игрушки для любопытных — мы переходим к умным операционным системам: к тем невидимым, повсеместным «каналам», которые дают повседневную мощность индивидуальным предпринимателям в Сан‑Паулу, Бразилия, и работникам в сфере общинного здравоохранения в Джакарте, Индонезия.
Эти пользователи — не первооткрыватели, а практичные потребители нужды. Они не хотят разговаривать с «призраками» внутри машины; им нужна система, которая помогает устранять препятствия реальной жизни. Именно в этом — момент истинного разрыва, который нужно пересечь, чтобы привлечь следующую группу в миллиард пользователей. И именно на этой не до конца освоенной периферии «глобальная мечта про API», которой грезит Кремниевая долина, сталкивается с самым суровым реалиями этого времени: суверенный барьер.
Ключевой сдвиг в том, что: массовое распространение AI больше не в первую очередь вопрос способности модели, а вопросраспространения и доверия. Передовые лаборатории будут постоянно улучшать качество моделей, но приход следующего миллиарда пользователей будет происходить не потому, что какая‑то модель набрала больше баллов в бенчмарках, а потому, что AI дойдет до них через те институты, создателей и сообщества, которым они уже доверяют.
Реальность 2026 года: AI становится задачей национальной инфраструктуры
В 2026 году главная отраслевaя проблема больше не в том, чтобы сделать модели умнее, а в том, чтобы модели** получили разрешение на допуск**. Суверенный барьер — это граница, где встречаются всеобщий интеллект и национальная идентичность. По всему миру очертания этого барьера уже видны: требования локализации данных, планы по вычислительным мощностям для AI на уровне государства и модельные проекты, возглавляемые правительствами в Индии, ОАЭ, Европе и т. п. Изначальная политика в области облачной инфраструктуры быстро превращается в политику интеллектуального суверенитета. В рамках этой логики государства отказываются становиться «колонией данных»: они требуют, чтобы интеллектуальные системы, обслуживающие их граждан, работали внутри суверенных хранилищ данных страны, передавали местную культуру и уважали государственные границы.
Когда вы видите, что CEO компаний Google (Sundar Pichai), OpenAI (Sam Altman), Anthropic (Dario Amodei), DeepMind (Demis Hassabis) в 2026 году выступают на одной сцене с премьер‑министром Индии Моди на саммите по влиянию индийского AI, вы видите реальное проявление суверенного барьера. Концепция M.A.N.A.V., предложенная премьер‑министром Моди (этическо‑моральная система, подотчетное управление, национальный суверенитет, инклюзивный AI, доверенные системы) посылает ясный сигнал: если передовые лаборатории попытаются напрямую «занимать» потребителя, это в итоге будет вытеснено регулированием. А доверие — единственная валюта, позволяющая пересекать эти границы.
Проблема ослабления сетевого эффекта и почему она заставляет нас искать совершенно новую стратегию
В отличие от социальных платформ, где добавление каждого нового пользователя повышает ценность для всех остальных, ценность AI во многом определяется локализацией. Мои первые тысяча промптов не сделают систему автоматически более ценной лично для вас. Флаттер модели, безусловно, можно оптимизировать за счет «данных‑флайвил», но пользовательский опыт всегда персонализирован, а не «социализирован». AI — частный инструмент, он может иметь эмоциональный окрас, но его ядро — это практический инструмент.
Отсюда возникает структурная проблема: AI не может опираться на компаунд‑сетевые эффекты социальных сетей, на которых выросло предыдущее поколение платформ. Когда в наличии нет нативной социальной карты, отрасль неизбежно увязает в цикле высокой стоимости: постоянно догоняет ранних пользователей, хардкор‑игроков и технологическую элиту. Эта стратегия работала в эпоху первооткрывателей, но не способна масштабироваться и дотянуться до следующих двух миллиардов пользователей.
И еще важнее: эта модель полностью провалится перед лицом суверенного барьера. Потому что когда сетевой эффект слабый, доверие не возникает само — его нужно привносить извне.
Переход: от сетевого эффекта к эффекту доверия
Если AI не может опираться на сетевой эффект социальных сетей, чтобы распространяться, ему придется опереться на другую силу: сеть доверия. Это ключевой сдвиг:
От привлечения пользователей — к наделению посредников
Масштабировать YouTube позволяет то, что он опирается на уже существующие сети человеческого доверия. AI тоже должен поступать так же. Вместо того чтобы пытаться выстроить прямые отношения с миллиардами пользователей, выигрышная стратегия должна быть иной:
наделить полномочиями тех, у кого уже есть отношения с пользователями;
использовать то доверие, которое они уже накопили;
распространять интеллектуальные возможности через эти каналы.
Почему это критически важно
В мире, сформированном суверенным барьером:
каналы распространения ограничены;
модели «прямо на пользователя» хрупки;
доверие локализовано, а не глобализовано.
Без сильных сетевых эффектов AI не может добиться масштабирования силой — ему нужно проникать через доверие. У AI нет сетевых эффектов — у него есть эффект доверия.
Решение: наступает эпоха посредников
Как YouTube вообще закрепился на международных рынках? Не благодаря более качественному плееру и не за счет простого перевода текста на локализованном интерфейсе. Ключ к победе в том, чтобы стать предпочтительной платформой для уже существующих локальных групп доверия. На каждом рынке точка старта принятия пользователями — это не сам YouTube, а точки привязки идентичности: те личности и сообщества, которые уже держат культурные рычаги влияния:
страницы фанатов Болливуда, на которых для эмигрантского сообщества в Дубае собираются редкие фрагменты с участием Шахрукх Кхана
фанаты аниме в США формируют экосистему глубокого контента, которую не охватывают мейнстрим‑СМИ
локальные комики, учителя и создатели смешанных монтажей (микс‑катов) превращают глобальный контент в формы, соответствующие культурному восприятию
Эти создатели — не только те, кто загружает видео. Они интерпретируют для аудитории интернет, выступают посредниками доверия и строят мост между зарубежной платформой и локальными пользователями. Успех YouTube в том, что он становится невидимой инфраструктурой, поддерживающей эти точки привязки идентичности.
Упущенная ключевая логика: прямой подход к потребителю сталкивается с суверенным барьером
Сегодня большинство AI‑компаний придерживаются мышления «прямо на потребителя»: создать более качественную модель → представить ее через чат‑интерфейс → напрямую получить пользователей.
Эта модель может работать в краткосрочной перспективе, но трудно будет поддерживать ее долго. Потому что на рынках с высокой трением пользователи не принимают новую технологию напрямую — они принимают технологию через доверенных людей.
Глобальная экспансия YouTube — это не попытка по одному убедить миллиарды пользователей. Это наделение полномочиями тех, кто уже завоевал доверие аудитории. Именно в этом заключается истинный смысл невидимой инфраструктуры: вы не владеете отношениями с пользователями — вы обеспечиваете поддержку отношениям с пользователями. И на масштабе такая модель имеет более глубокий ров.
От чата к агентам: наделение посредников доверия
Именно здесь ключевой переход от чат‑интерфейса к агентам. Чат — инструмент для отдельного человека, а агенты — рычаг, который предназначен посредникам. Если применить идею руководителя Anthropic Ари Ами Вора — «создайте продукт для самых уставших людей», — то во многих рынках именно эти люди являются трансляторами доверия:
преподаватели, которые адаптируют зарубежные идеи
предприниматели, которые справляются с локальной бюрократической системой
лидеры сообществ, которые разруливают перегруз информацией
Путь к победе — решать проблему задержки доверия, с которой они сталкиваются, то есть разрыв между глобальными интеллектуальными возможностями и локальными практическими сценариями. Для этого нужна реально внедряемая система поддержки агентами:
для преподавателей: Sora / GPT-5.2 — заново собрать учебные курсы: заменить американский футбол на крикет, сохранив смысл, но подстроив под местную культуру.
для индивидуальных предпринимателей: агенты могут не только разъяснять налоговые формы Сингапура, но и через локальные API выполнять заполнение и подачу.
для лидеров сообществ: добавить к WhatsApp функцию контекстной памяти — выделять из десяти тысяч сообщений структурированные пункты действий, сохранять полезную информацию и поддерживать нормы сообщества.
Основная работающая часть модели: устранение задержки доверия на последней миле
Чтобы понять, почему эта модель может масштабироваться, нужно понимать задержку доверия. В глобальных регионах узким местом часто является не доступ к технологиям как таковым, а время, риски и неопределенность, необходимые для формирования доверия. Распространение не происходит через рекламу — оно происходит через рекомендации (эндорсменты).
Типичная ошибка большинства AI‑компаний — пытаться масштабировать «налог на доверие» через бренд, распространение или продуктовую полировку, концентрируя процесс оплаты доверия. Но доверие не масштабируется таким образом.
Самый быстрый путь — передать внешний подряд «налог на доверие» тем, кто уже взял на себя эту стоимость: укорененным в местности создателям, педагогам и операторам. Они уже провели апробации с аудиторией, выяснили, что работает, что не работает и что действительно важно в локальном сценарии — они берут на себя риск за аудиторию.
Наделяя этих доверенных посредников:
стоимость привлечения пользователей стремится к нулю: дистрибуция опирается на существующие сети доверия;
ценность жизненного цикла пользователя растет: практичные функции подстраиваются под местные потребности, а не превращаются в универсальные;
скорость распространения ускоряется: доверие наследуется напрямую, без накопления с нуля.
В результате компания получает по сути бесплатную глобальную команду продаж без затрат на оплату — ее убедительность, эффективность и глубина укоренения будут значительно выше, чем у любой централизованной стратегии продвижения. Вы больше не «создаете продукт для пользователей» — вы предоставляете рычаг тем, кому пользователи уже доверяют.
Именно так устроен путь глобальной экспансии YouTube — и так единственный раз AI сможет пересечь суверенный барьер.
Суверенные хранилища данных: геополитический ров
Технический оптимизм, который продвигает Марк Андерсен, имеет в итоге не конечную цель — противостоять регулированию, а превратить регулирование в продукт. В конкуренции с глубоким поиском Китая (DeepSeek) и Лунной тьмой (Kimi) победа достигается не тем, что игнорируют границы, а тем, что берут под контроль хранилища данных.
Что такое суверенное хранилище данных? Это локальный вариант с приоритетным размещением моделей, работающий внутри системы цифровой публичной инфраструктуры (DPI) одной страны.
Геополитический ров: предоставляя цифровой суверенитет Индии, Бразилии и другим странам в отношении моделей, весов и данных, мы коренным образом меняем распределение контроля. Интеллектуальные возможности больше не опосредуются зарубежными платформами — ими управляют автономно внутри границ. Это не прямое «блокирование» внешних оппонентов, а резкое повышение стоимости их влияния, снижение зависимости от внешних факторов и уменьшение рисков контроля, извлечения данных или одностороннего вмешательства.
Точки привязки идентичности: глубоко связать модель с местной культурой и правовыми реалиями, создавая ров, который невозможно преодолеть для универсального искусственного интеллекта.
Петли обратной связи: решать такие крайне локальные детали, как разрешения на малайзийские налоги, — это не отвлечение, а «ускоритель» для модели. Это дает базовым моделям культурную устойчивость, чтобы они постоянно оставались на уровне мировых лидеров по интеллекту.
Здесь есть реальные противоречия. Видение AI — реализовать всеобщий интеллект, но суверенизация толкает весь экосистемный ландшафт к фрагментации. Если каждая страна построит свой собственный технологический стек, нас ждет риск несовместимости систем, разнородных стандартов безопасности и дублирования затрат на разработку. Вызов для передовых лабораторий — не только в масштабировании интеллекта, а в проектировании архитектуры, которая позволит и локальный контроль реализовать, и не ослабить преимущества совместной работы глобальной экосистемы.
Три структурных изменения в эпоху посредников
1. Дистрибуция AI войдет в существующие сети доверия
AI не будет масштабироваться через независимые приложения — он будет встраиваться в платформы мгновенных сообщений, рабочие процессы создателей, образовательные системы и инфраструктуру малых и микропредприятий. Потому что доверие уже создано в этих сценариях. При отсутствии сильных сетевых эффектов дистрибуция должна опираться на уже существующие человеческие сети.
2. Государственная AI‑инфраструктура станет стандартом
Правительства будут все чаще требовать, чтобы ключевые AI‑системы выполняли локальное развертывание моделей, строили суверенные вычислительные мощности или проходили проверки по регулированию. Это ускорит внедрение архитектуры суверенных хранилищ данных.
3. Экономика создателей сместится в сторону экономики агентов
Создатели перестанут быть только производителями контента: они будут развертывать агентов, чтобы выполнять реальные задачи для своих сообществ. Эти агенты станут продолжением доверенных личностей, унаследуют их репутацию и будут передавать интеллектуальные возможности через сеть доверия.
Конечно, возможен и другой сценарий будущего: появится помощник, который займет абсолютное доминирующее положение — глубоко встроится в операционную систему, браузер и устройства и напрямую свяжет пользователей и модели, полностью обойдя посредников. Если это случится, слой доверия будет прямо встроен в этого помощника.
Но исторический опыт указывает на более диверсифицированную картину. Даже самые доминирующие платформы — от мобильных операционных систем до социальных сетей — в итоге растут за счет экосистемы. Интеллект, возможно, универсален, но доверие всегда локализовано. Какая бы архитектура ни победила, ключевая проблема не изменится: распространение AI больше не в первую очередь вопрос моделей — это вопрос дистрибуции и доверия.
Итог: нишевые рынки — это и есть настоящие глобальные рынки
Самая большая ошибка эпохи первооткрывателей — верить, что интеллект является стандартизированным товаром: один универсальный глобальный API, который в точности работает и в конференц‑залах Манхэттена, и в сельской местности Кана̄так̄и. Суверенный барьер вскрывает более суровую правду: интеллект, возможно, универсален, но распространение — нет.
Национальные и местные институты не хотят «черного ящика» внешней системы. Они хотят контроль, способность адаптировать под сценарии и право формировать интеллект внутри собственных границ. Им не нужны готовые приложения — им нужны базовые каналы: инфраструктура, системы безопасности и вычислительные мощности, чтобы граждане страны могли автономно строить.
Логика роста 2026 года — это уже не поиск универсального пользовательского опыта, а продуктовая гибкость: чтобы интеллект мог адаптироваться под локальные сценарии, регулирование и культуру, не теряя ключевые возможности. Если мы продолжим напрямую гнаться за глобальными потребителями, мы всегда останемся «внешним слоем» — хрупким, заменяемым и с риском повторить все те удары, которые я пережил на YouTube.
Но когда мы переходим к наделению посредников, модель меняется радикально: от чата — к агентам; от попыток убедить пользователей — к наделению посредников доверия; от противостояния регулированию — к превращению регулирования в ров.
Масштабирование AI происходит не за счет моделей, а за счет доверия.
Победителями в гонке AI станет не компания с самыми умными моделями, а та, которая в десять раз усилит способности местных героев — учителей, бухгалтеров, лидеров сообществ. Потому что в конечном счете интеллект передается внутри системы, а распространение происходит среди людей.