Химаншу Тяги — профессор Индийского института науки и соучредитель Sentient.
Откройте для себя лучшие новости и события финтеха!
Подписывайтесь на рассылку FinTech Weekly
Читают руководители JP Morgan, Coinbase, Blackrock, Klarna и других компаний
Обещание ИИ требует радикально открытого, децентрализованного и глобально сотрудничественного подхода. Всё остальное — риск хрупкого, предвзятого и нестабильного будущего.
Пока правительства и технологические гиганты борются за доминирование в области ИИ, мы движемся к опасному и недальновидному будущему, в котором несколько стран и корпораций будут диктовать развитие технологии, которая сформирует всю планету. Меня всё больше тревожит глобальная гонка за превосходство в ИИ.
Часто это представляют как высоко рискованный поединок — США против Китая, где победитель получает ключи к технологии, которая изменит будущее человечества. Как человек, профессионально и академически погружённый в ИИ, я хочу сказать: эта нарратив опасно ошибочна. Концепция о том, что одна страна формирует курс развития ИИ, структурно запутана и может быть менее чем идеальной.
Глобальные корни ИИ
Реальность такова, что ни одна страна не может создавать ИИ в изоляции, даже США, которые в 2023 году создали 61 заметную модель, согласно отчету AI Index от Стэнфорда. Основы ИИ: талант, оборудование и данные — вплетены в глобальную ткань, которую ни одна страна не может распутать и переделать в одиночку.
Возьмём, к примеру, талант: из всех ведущих исследователей ИИ в США почти 70% родом или обучались за границей, в основном в Индии и Китае. Две трети стартапов в области ИИ в США имеют хотя бы одного иммигранта-основателя. Пытаться национализировать ИИ, изолируя иностранных специалистов, — всё равно что строить мозг и отрезать половину его нейронов.
Оборудование ещё более запутано. Американские компании, такие как NVIDIA, разрабатывают чипы для ИИ, а нидерландская компания ASML производит единственные в мире машины экстремальной ультрафиолетовой (EUV) литографии для их изготовления. Тайваньский TSMC производит более 90% передовых чипов, а Япония поставляет важные материалы. Таможенные пошлины и экспортный контроль, как в торговой войне между США и Китаем, не обеспечивают контроль; они нарушают эту тонкую сеть, повышая издержки и тормозя прогресс для всех.
Данные, жизненно важные для ИИ, ещё более упрямо глобальны. Разнообразные глобальные данные необходимы для создания наиболее эффективных и универсальных моделей ИИ.
Почему доминирование опасно
Даже если одна страна сможет монополизировать ИИ, этого делать не стоит. Доминирование США в экосистеме ИИ создаст только эхо-камеру, закрепляя западные предубеждения в системах, используемых по всему миру.
Сегодня ведущие крупномасштабные языковые модели (LLMs) часто отражают узкий спектр глобальных взглядов, ограничивая их способность эффективно обслуживать разнообразные население. Например, языковые модели, обученные преимущественно на одном источнике данных, могут не учитывать культурные нюансы или вариации из других регионов. Это снижает точность и полезность ИИ.
Хуже того, контроль одной страны над ИИ способствует гонке вооружений с нулевой суммой, с далеко идущими последствиями. Нарратив о гонке США и Китая за превосходство в ИИ, часто представляемый как борьба между OpenAI или Anthropic и Deepseek или Manus, усилился при активном участии правительств. Обе страны вкладывают огромные средства в ИИ, рассматривая его как стратегический ресурс, подобно ядерным возможностям в XX веке. Если компании, поддерживаемые одним правительством, получат доступ к самым передовым системам ИИ, они смогут контролировать трансформирующий глобальный актив, получая беспрецедентное экономическое и политическое влияние.
Такая динамика грозит экстремальной цензурой и контролем, когда сверхдержавы диктуют доступ к инструментам и данным ИИ. Малые страны могут оказаться вынужденными выбрать сторону — США или Китая, наподобие раскола во времена холодной войны и ядерной гонки. Например, страны Африки и Юго-Восточной Азии могут стать зависимыми от сверхдержав и потерять автономию в будущем ИИ. Доминирующая страна может полностью ограничить доступ к инструментам ИИ, изолировать конкурентов или насытить мировой рынок системами, продвигающими свои собственные нарративы и интересы.
Это не безопасность, а рецепт нестабильности. Автономное оружие на базе ИИ может вызвать «вспышки войн», когда системы ускоряют конфликты быстрее, чем люди успевают вмешаться. Доминирующая держава может использовать ИИ для глобального наблюдения или экономического давления, вызывая недовольство и зависимость.
Почему открытость — единственный путь
Создание справедливого ИИ требует вклада со всего мира, но централизованные системы обладают непропорциональной властью.
Например, решение Anthropic резко отключить Windsurf от доступа к моделям Claude 3.x без предварительного согласования или прозрачности показывает, как закрытые поставщики ИИ могут односторонне контролировать важные ресурсы. Такие действия не только ставят корпоративный контроль выше общего прогресса, но и ограничивают возможности новых участников строить на общей инфраструктуре. Усиление законов о локализации данных усложняет доступ, делая международное сотрудничество единственным путём к действительно репрезентативным наборам данных.
ИИ расширяет наши возможности креативно мыслить, работать эффективнее и быстрее решать проблемы. Но чтобы эти преимущества приносили пользу всем, нужен глобальный, открытый и совместный подход.
Если развитие сосредоточено в нескольких странах (или корпорациях), мы рискуем тормозить инновации, увеличивать неравенство и концентрировать важнейшие решения о будущем этого роста в руках слишком немногих.
Модели с открытым исходным кодом ломают монополии и закрытые системы. Когда разработчики из Бангалора и Боготы могут строить на одной базе, мы получаем поток креативности, который ни одна крупная компания не сможет повторить. История показывает, что проекты с открытым исходным кодом, будь то в программном обеспечении или науке, процветают благодаря глобальному пулу талантов и идей. ИИ — не исключение.
Децентрализация так же важна. Централизованные системы хрупки, уязвимы для единственных точек отказа и склонны к злоупотреблениям. Децентрализованный подход распределяет риски и ответственность. Посмотрите на недавний глобальный сбой ChatGPT — и увидите, что происходит, когда централизованные серверы выходят из строя. Для некоторых это было раздражающим, для других — серьёзной проблемой.
А что если мы станем ещё более зависимыми от ИИ в здравоохранении, инфраструктуре, образовании или экстренных службах? Представьте инфраструктуру ИИ, которая не рухнет, если одна страна дернет за рычаг или одна компания переключит выключатель. Вот будущее, которое нам нужно — такое, где ни один игрок не держит все ключи.
Призыв к цифровому интернационализму
Когда меня спрашивают: «Кто должен руководить ИИ: Америка или Китай?» — мой ответ сложен. Нам нужен цифровой интернационализм: совместные инструменты, стандарты и ответственность. ИИ — не нефть или сталь. Это не ресурс для накопления или оружие для использования. Это технология, которая переопределит наш образ жизни, работы и решения самых сложных проблем мира. Поэтому рассматривать его как национальный актив или корпоративный трофей — неправильное понимание его сути и риск для будущего.
Правооснованный акт ЕС о ИИ, государственная модель Китая и рыночный подход США — все имеют свои сильные и слабые стороны, но ни один из них не является полным ответом. Нам нужен диалог, а не доминирование. Остальной мир, Индия, Бразилия, Нигерия и другие страны, — все имеют равное право участвовать в этой технологии. Мы не можем доверять одной стране, каким бы благими намерениями она ни руководствовалась, принимать решения за всех. И мы не можем позволить себе гонку вооружений, где ИИ станет инструментом доминирования, а не прогресса.
Глобальное управление не означает уступку контроля. Это — установление базового уровня доступа и ответственности, выгодного всем. Открытые платформы, прозрачная разработка и совместный контроль могут обеспечить, чтобы ИИ служил человечеству, а не узкому кругу избранных. Америка всё ещё может лидировать, но не за счёт накопления власти. Она может вести за собой, создавая системы, которые работают для мира и с миром, системы, приглашающие к участию, а не исключающие.
Об авторе:
Химаншу Тяги — профессор Индийского института науки и соучредитель Sentient. Он проводил фундаментальные исследования в области теории информации, ИИ и криптографии, основал несколько компаний в сферах криптовалют, ИИ и коммуникаций. Химаншу стремится создавать технологии и продукты для связанного будущего, где информационные сети, ускоряемые ИИ и криптовалютами, будут двигать все человеческие стремления.
Он лауреат премии Молодой учёный Индийской национальной академии наук, награды за выдающиеся достижения в ранней карьере от Университета Мэриленда, был заместительным редактором журнала Transactions on Information Theory и обладателем нескольких наград за лучшую статью на ведущих конференциях. Опубликовал книгу «Информационно-теоретическая криптография» в издательстве Cambridge University Press.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Если Америка «выиграет» гонку за ИИ, мир проиграет
Химаншу Тяги — профессор Индийского института науки и соучредитель Sentient.
Откройте для себя лучшие новости и события финтеха!
Подписывайтесь на рассылку FinTech Weekly
Читают руководители JP Morgan, Coinbase, Blackrock, Klarna и других компаний
Обещание ИИ требует радикально открытого, децентрализованного и глобально сотрудничественного подхода. Всё остальное — риск хрупкого, предвзятого и нестабильного будущего.
Пока правительства и технологические гиганты борются за доминирование в области ИИ, мы движемся к опасному и недальновидному будущему, в котором несколько стран и корпораций будут диктовать развитие технологии, которая сформирует всю планету. Меня всё больше тревожит глобальная гонка за превосходство в ИИ.
Часто это представляют как высоко рискованный поединок — США против Китая, где победитель получает ключи к технологии, которая изменит будущее человечества. Как человек, профессионально и академически погружённый в ИИ, я хочу сказать: эта нарратив опасно ошибочна. Концепция о том, что одна страна формирует курс развития ИИ, структурно запутана и может быть менее чем идеальной.
Глобальные корни ИИ
Реальность такова, что ни одна страна не может создавать ИИ в изоляции, даже США, которые в 2023 году создали 61 заметную модель, согласно отчету AI Index от Стэнфорда. Основы ИИ: талант, оборудование и данные — вплетены в глобальную ткань, которую ни одна страна не может распутать и переделать в одиночку.
Возьмём, к примеру, талант: из всех ведущих исследователей ИИ в США почти 70% родом или обучались за границей, в основном в Индии и Китае. Две трети стартапов в области ИИ в США имеют хотя бы одного иммигранта-основателя. Пытаться национализировать ИИ, изолируя иностранных специалистов, — всё равно что строить мозг и отрезать половину его нейронов.
Оборудование ещё более запутано. Американские компании, такие как NVIDIA, разрабатывают чипы для ИИ, а нидерландская компания ASML производит единственные в мире машины экстремальной ультрафиолетовой (EUV) литографии для их изготовления. Тайваньский TSMC производит более 90% передовых чипов, а Япония поставляет важные материалы. Таможенные пошлины и экспортный контроль, как в торговой войне между США и Китаем, не обеспечивают контроль; они нарушают эту тонкую сеть, повышая издержки и тормозя прогресс для всех.
Данные, жизненно важные для ИИ, ещё более упрямо глобальны. Разнообразные глобальные данные необходимы для создания наиболее эффективных и универсальных моделей ИИ.
Почему доминирование опасно
Даже если одна страна сможет монополизировать ИИ, этого делать не стоит. Доминирование США в экосистеме ИИ создаст только эхо-камеру, закрепляя западные предубеждения в системах, используемых по всему миру.
Сегодня ведущие крупномасштабные языковые модели (LLMs) часто отражают узкий спектр глобальных взглядов, ограничивая их способность эффективно обслуживать разнообразные население. Например, языковые модели, обученные преимущественно на одном источнике данных, могут не учитывать культурные нюансы или вариации из других регионов. Это снижает точность и полезность ИИ.
Хуже того, контроль одной страны над ИИ способствует гонке вооружений с нулевой суммой, с далеко идущими последствиями. Нарратив о гонке США и Китая за превосходство в ИИ, часто представляемый как борьба между OpenAI или Anthropic и Deepseek или Manus, усилился при активном участии правительств. Обе страны вкладывают огромные средства в ИИ, рассматривая его как стратегический ресурс, подобно ядерным возможностям в XX веке. Если компании, поддерживаемые одним правительством, получат доступ к самым передовым системам ИИ, они смогут контролировать трансформирующий глобальный актив, получая беспрецедентное экономическое и политическое влияние.
Такая динамика грозит экстремальной цензурой и контролем, когда сверхдержавы диктуют доступ к инструментам и данным ИИ. Малые страны могут оказаться вынужденными выбрать сторону — США или Китая, наподобие раскола во времена холодной войны и ядерной гонки. Например, страны Африки и Юго-Восточной Азии могут стать зависимыми от сверхдержав и потерять автономию в будущем ИИ. Доминирующая страна может полностью ограничить доступ к инструментам ИИ, изолировать конкурентов или насытить мировой рынок системами, продвигающими свои собственные нарративы и интересы.
Это не безопасность, а рецепт нестабильности. Автономное оружие на базе ИИ может вызвать «вспышки войн», когда системы ускоряют конфликты быстрее, чем люди успевают вмешаться. Доминирующая держава может использовать ИИ для глобального наблюдения или экономического давления, вызывая недовольство и зависимость.
Почему открытость — единственный путь
Создание справедливого ИИ требует вклада со всего мира, но централизованные системы обладают непропорциональной властью.
Например, решение Anthropic резко отключить Windsurf от доступа к моделям Claude 3.x без предварительного согласования или прозрачности показывает, как закрытые поставщики ИИ могут односторонне контролировать важные ресурсы. Такие действия не только ставят корпоративный контроль выше общего прогресса, но и ограничивают возможности новых участников строить на общей инфраструктуре. Усиление законов о локализации данных усложняет доступ, делая международное сотрудничество единственным путём к действительно репрезентативным наборам данных.
ИИ расширяет наши возможности креативно мыслить, работать эффективнее и быстрее решать проблемы. Но чтобы эти преимущества приносили пользу всем, нужен глобальный, открытый и совместный подход.
Если развитие сосредоточено в нескольких странах (или корпорациях), мы рискуем тормозить инновации, увеличивать неравенство и концентрировать важнейшие решения о будущем этого роста в руках слишком немногих.
Модели с открытым исходным кодом ломают монополии и закрытые системы. Когда разработчики из Бангалора и Боготы могут строить на одной базе, мы получаем поток креативности, который ни одна крупная компания не сможет повторить. История показывает, что проекты с открытым исходным кодом, будь то в программном обеспечении или науке, процветают благодаря глобальному пулу талантов и идей. ИИ — не исключение.
Децентрализация так же важна. Централизованные системы хрупки, уязвимы для единственных точек отказа и склонны к злоупотреблениям. Децентрализованный подход распределяет риски и ответственность. Посмотрите на недавний глобальный сбой ChatGPT — и увидите, что происходит, когда централизованные серверы выходят из строя. Для некоторых это было раздражающим, для других — серьёзной проблемой.
А что если мы станем ещё более зависимыми от ИИ в здравоохранении, инфраструктуре, образовании или экстренных службах? Представьте инфраструктуру ИИ, которая не рухнет, если одна страна дернет за рычаг или одна компания переключит выключатель. Вот будущее, которое нам нужно — такое, где ни один игрок не держит все ключи.
Призыв к цифровому интернационализму
Когда меня спрашивают: «Кто должен руководить ИИ: Америка или Китай?» — мой ответ сложен. Нам нужен цифровой интернационализм: совместные инструменты, стандарты и ответственность. ИИ — не нефть или сталь. Это не ресурс для накопления или оружие для использования. Это технология, которая переопределит наш образ жизни, работы и решения самых сложных проблем мира. Поэтому рассматривать его как национальный актив или корпоративный трофей — неправильное понимание его сути и риск для будущего.
Правооснованный акт ЕС о ИИ, государственная модель Китая и рыночный подход США — все имеют свои сильные и слабые стороны, но ни один из них не является полным ответом. Нам нужен диалог, а не доминирование. Остальной мир, Индия, Бразилия, Нигерия и другие страны, — все имеют равное право участвовать в этой технологии. Мы не можем доверять одной стране, каким бы благими намерениями она ни руководствовалась, принимать решения за всех. И мы не можем позволить себе гонку вооружений, где ИИ станет инструментом доминирования, а не прогресса.
Глобальное управление не означает уступку контроля. Это — установление базового уровня доступа и ответственности, выгодного всем. Открытые платформы, прозрачная разработка и совместный контроль могут обеспечить, чтобы ИИ служил человечеству, а не узкому кругу избранных. Америка всё ещё может лидировать, но не за счёт накопления власти. Она может вести за собой, создавая системы, которые работают для мира и с миром, системы, приглашающие к участию, а не исключающие.
Об авторе:
Химаншу Тяги — профессор Индийского института науки и соучредитель Sentient. Он проводил фундаментальные исследования в области теории информации, ИИ и криптографии, основал несколько компаний в сферах криптовалют, ИИ и коммуникаций. Химаншу стремится создавать технологии и продукты для связанного будущего, где информационные сети, ускоряемые ИИ и криптовалютами, будут двигать все человеческие стремления.
Он лауреат премии Молодой учёный Индийской национальной академии наук, награды за выдающиеся достижения в ранней карьере от Университета Мэриленда, был заместительным редактором журнала Transactions on Information Theory и обладателем нескольких наград за лучшую статью на ведущих конференциях. Опубликовал книгу «Информационно-теоретическая криптография» в издательстве Cambridge University Press.