Если Америка «выиграет» гонку за ИИ, мир проиграет

Химаншу Тяги — профессор в Индийском институте науки и сооснователь Sentient.


Откройте для себя топовые новости и события в сфере финтеха!

Подпишитесь на рассылку FinTech Weekly

Читают руководители JP Morgan, Coinbase, Blackrock, Klarna и др.


Обещание ИИ требует радикально открытого, децентрализованного и глобально совместного подхода. Любое другое решение грозит хрупким, предвзятым и нестабильным будущим.

Пока правительства и технологические гиганты соревнуются за доминирование в ИИ, мы движемся к опасному и близоруко устроенному будущему — такому, где несколько стран и корпораций задают направление развитию технологии, которая определит судьбу всей планеты. Я не могу не испытывать растущую тревогу из-за глобальной гонки за превосходство в ИИ.

Эту идею часто продают как высокотехнологичное противостояние — Америка против Китая, где победитель забирает ключи от технологии, которая переформатирует будущее человечества. Как человек, который годами погружался в ИИ и профессионально, и академически, я хочу прямо сказать: этот нарратив опасно ошибочен. Сам замысел о том, что одна страна определяет курс ИИ, структурно запутан и, возможно, далёк от оптимального.

Глобальные корни ИИ

Реальность такова, что ни одна страна не может построить ИИ изолированно — даже Соединённые Штаты, которые в 2023 году, согласно AI Index Report от Stanford, создали 61 заметную модель. Столпы ИИ: таланты, аппаратное обеспечение и данные — вплетены в глобальную мозаику, которую не под силу распутать и заново собрать одной-единственной стране.

Возьмём таланты, например: из всех ведущих исследователей ИИ в Америке почти 70% родились или обучались за границей, а Индия и Китай — ключевые источники. Две трети стартапов в сфере ИИ в США имеют как минимум одного иммигранта среди основателей. Пытаться «национализировать» ИИ, отчуждая при этом чужие умы, — всё равно что строить мозг и отрезать половину его нейронов.

Аппаратное обеспечение ещё более запутанно. Компании США, такие как NVIDIA, проектируют ИИ-чипы, но в Нидерландах компания ASML производит единственные машины для литографии в экстремальном ультрафиолете (EUV), чтобы их «вытравливать». Тайваньская TSMC выпускает более 90% передовых чипов, а Япония поставляет критически важные материалы. Тарифы и экспортные ограничения, как в торговой войне США—Китай, не дают контроля; они нарушают эту хрупкую сеть, повышают издержки и тормозят прогресс для всех.

Данные — кровеносная система ИИ — ещё упрямее остаются глобальными. Поскольку для создания самых эффективных и универсально применимых моделей ИИ необходимы разнообразные глобальные данные.

Почему доминирование опасно

Даже если бы одна страна могла монополизировать ИИ, ей не следует этого делать. ИИ-экосистема, доминируемая США, породила бы лишь «эхо-камеру», встраивая западные предубеждения в системы, которые используются по всему миру.

Сегодня ведущие большие языковые модели (LLM) часто отражают лишь узкую долю глобальных взглядов, ограничивая их способность эффективно обслуживать разные группы населения. Например, языковые модели, обученные в первую очередь на одном источнике данных, могут не улавливать культурные нюансы или различия из других регионов. Это снижает точность и полезность ИИ.

Ещё хуже то, что одна страна, удерживающая рычаги ИИ, подпитывает гонку вооружений с нулевой суммой и далеко идущими последствиями. Нарративы гонки США—Китай за превосходство в ИИ, нередко подаваемые как соревнование между OpenAI или Anthropic и Deepseek или Manus, усиливаются при активном участии правительств. Обе страны вкладываются в ИИ, рассматривая его как стратегический ресурс, подобный ядерным возможностям в XX веке. Если компании, поддерживаемые одним правительством, получат доступ к самым продвинутым ИИ, они смогут контролировать трансформирующий глобальный актив, обеспечив беспрецедентное экономическое и политическое преимущество.

Такая динамика несёт риск экстремальной цензуры и «вратарства», когда сверхдержавы диктуют доступ к инструментам ИИ и данным. Затем более мелким странам может быть навязано присоединиться либо к США, либо к Китаю, повторяя выравнивания времён холодной войны в период ядерной гонки. Например, страны в Африке и Юго-Восточной Азии могут стать зависимыми от сверхдержав и уступить автономию будущему своего ИИ. Доминирующая страна может полностью удерживать инструменты ИИ, изолируя соперников, или затоплять глобальные рынки системами, которые ставят во главу угла её собственные нарративы и интересы.

Это не безопасность; это рецепт нестабильности. Автономные вооружения с ИИ могут спровоцировать «вспышечные войны», когда системы разгоняют конфликты быстрее, чем люди успевают вмешаться. Доминирующая держава может использовать ИИ для глобального наблюдения или экономического принуждения, порождая недовольство и зависимость.

Почему открытость — единственный путь

Построение справедливого ИИ требует вкладов со всех уголков мира, но централизованные системы обладают непропорционально большим рычагом влияния.

Например, решение Anthropic внезапно прекратить доступ Windsurf к её моделям Claude 3.x — без предварительного сотрудничества или прозрачности — показывает, как закрытые провайдеры ИИ могут в одностороннем порядке «запирать» доступ к критически важным ресурсам. Такие действия не только ставят корпоративный контроль над коллективным прогрессом выше, но и ограничивают возможности развивающихся игроков строить продукты поверх разделяемой инфраструктуры. Дополнительные законы о локализации данных ещё сильнее усложняют доступ, делая международное сотрудничество единственным путём к действительно репрезентативным наборам данных.

ИИ усиливает нашу способность мыслить творчески, работать эффективнее и помогает решать проблемы быстрее. Но чтобы эти выгоды продуктивности приносили пользу всем, нужен глобальный, открытый и совместный подход.

Если разработка будет оставаться сосредоточенной в нескольких странах (или корпорациях), мы рискуем сдерживать инновации, увеличивать неравенство и концентрировать ключевые решения о будущем этого роста в руках слишком немногих.

Модели с открытым исходным кодом разрушают монополии и «закрытые сады». Когда разработчики — от Бангалора до Боготы — могут строить на одной и той же основе, возникает поток креативности, который не под силу ни одной единственной организации. История показала, что проекты с открытым исходным кодом — будь то в программном обеспечении или в науке — процветают, потому что они опираются на глобальный пул талантов и идей. ИИ — не исключение.

Децентрализация столь же критична. Централизованные системы хрупки: они уязвимы для отдельных точек отказа и склонны к злоупотреблениям. Децентрализованный подход распределяет риски и ответственность. Вам достаточно взглянуть на недавний глобальный сбой ChatGPT, чтобы понять, что происходит, когда централизованные серверы выходят из строя. Кому-то это было просто неприятно, другим — серьёзно.

Но что, если мы станем ещё сильнее зависеть от ИИ в здравоохранении, инфраструктуре, образовании или экстренном реагировании? Представьте инфраструктуру ИИ, которая не рушится, если одна страна потянет за рычаг или одна компания переключит тумблер. Вот это будущее, которое нам нужно — такое, где ни один игрок не держит в руках все ключи.

Призыв к цифровому интернационализму

Итак, когда меня спрашивают: «Кто должен возглавлять ИИ: Америка или Китай?» — мой ответ нюансирован. Нам нужен цифровой интернационализм: общие инструменты, общие стандарты, общая ответственность. ИИ не похож на нефть или сталь. Его нельзя рассматривать как ресурс для накопления или как оружие для применения. Это технология, которая изменит то, как мы живём, работаем и решаем самые сложные проблемы мира. Поэтому обращение с ИИ как с национальным активом или корпоративным трофеем неверно отражает его природу и ставит под угрозу его будущее.

Закон ЕС об ИИ с опорой на права человека, государственно-ориентированная модель Китая и рыночно-ориентированный подход США — у каждого есть и сильные, и слабые стороны, но нет ни одного, который был бы «всем ответом». Нам нужен диалог, а не доминирование. В этой технологии у всего остального мира — Индии, Бразилии, Нигерии и далее — равная доля интереса. Мы не можем полагаться на одну страну — какой бы благожелательной она ни была — чтобы решать, кто командует парадом. И мы не можем позволить себе гонку вооружений, где ИИ становится инструментом доминирования вместо прогресса.

И глобальное управление не означает отказ от контроля. Это означает установление базового уровня доступности и ответственности, которые идут на пользу всем. Открытые исходные коды, прозрачная разработка и совместный надзор могут гарантировать, что ИИ служит человечеству, а не лишь привилегированному меньшинству. Америка всё ещё может лидировать, но не за счёт накопления силы. Она может лидировать примером, создавая системы, которые работают для мира и вместе с миром, системы, которые приглашают к участию, а не исключают.


Об авторе:

Химаншу Тяги — профессор в Индийском институте науки и сооснователь Sentient. Он проводил фундаментальные исследования по теории информации, ИИ и криптографии и основал несколько компаний в сферах крипто, ИИ и коммуникаций. Химаншу посвящён созданию технологий и продуктов для взаимосвязанного будущего, где информационные сети, ускоренные ИИ и крипто, будут двигать все человеческие устремления.

Он является лауреатом премии Indian National Science Academy Young Scientist Award, лауреатом премии Early Career Distinguished Alumni Award Университета Мэриленда, работал заместителем главного редактора в журналах Transactions on Information Theory и имеет несколько наград за лучшие статьи на ведущих конференциях. Он опубликовал книгу под названием “Information-theoretic Cryptography” в Cambridge University Press.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить