Якщо Америка «Перемагає» у гонці штучного інтелекту, світ програє

Himanshu Tyagi — професор Індійського інституту науки та співзасновник Sentient.


Відкрийте для себе найкращі новини та події у сфері фінтех!

Підписуйтеся на розсилку FinTech Weekly

Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інших


Обіцянки штучного інтелекту вимагають радикально відкритого, децентралізованого та глобально співпрацюючого підходу. Менше — ризикує призвести до крихкого, упередженого та нестабільного майбутнього.

У той час як уряди та технологічні гіганти змагаються за домінування в AI, ми рухаємося до небезпечного та короткозорого майбутнього, де кілька країн і корпорацій диктуватимуть розвиток технології, яка формуватиме всю планету. Я не можу не відчувати зростаючу тривогу щодо глобальної гонки за перевагу в AI.

Часто це подається як високоризикова дуель — Америка проти Китаю, де переможець отримує ключі до технології, що змінить майбутнє людства. Як людина, яка багато років професійно та академічно занурена в AI, я тут, щоб це викрити: ця наративна модель небезпечно хибна. Концепція однієї країни, що формує курс AI, є структурно заплутаною і може бути менш ніж ідеальною.

Глобальні корені AI

Реальність полягає в тому, що жодна країна не може створити AI ізольовано, навіть США, які у 2023 році виробили 61 помітну модель, згідно з доповіддю AI Index від Стенфордського університету. Опори AI: талант, апаратура та дані — сплетені у глобальну тканину, яку жодна країна не може розплутати і переплести самостійно.

Візьмемо, наприклад, талант: із усіх провідних дослідників AI у США майже 70% народжені або навчені за кордоном, з Індії та Китаю як ключовими джерелами. Дві третини стартапів у США мають принаймні одного іммігранта-засновника. Спроба націоналізувати AI, ізолюючи іноземних умів, — це як будувати мозок і відрізати половину його нейронів.

Апаратне забезпечення ще більш заплутане. Американські компанії, такі як NVIDIA, проектують AI-чіпи, але нідерландська компанія ASML виробляє єдині машини для літографії ультрафіолетового (EUV), щоб їх гравірувати. Тайванська TSMC виробляє понад 90% сучасних чипів, а Японія постачає критичні матеріали. Тарифні та експортні обмеження, як у торговій війні між США та Китаєм, не забезпечують контроль; вони руйнують цю делікатну мережу, підвищуючи витрати і гальмуючи прогрес для всіх.

Дані, життєва кров AI, ще більш вперті у глобальному масштабі. Оскільки різноманітні, глобальні дані є необхідними для створення найефективніших і універсально застосовних моделей AI.

Чому домінування є небезпечним

Навіть якби одна країна могла монополізувати AI, цього не слід робити. Екосистема AI, домінована США, створила б лише ехо-камеру, закорінюючи західні упередження у системи, що використовуються по всьому світу.

Сьогодні провідні великі мовні моделі (LLMs) часто відображають вузький зріз глобальних перспектив, обмежуючи їх здатність ефективно обслуговувати різноманітні населення. Наприклад, мовні моделі, навчені переважно на одному джерелі даних, можуть не враховувати культурні нюанси або варіації з інших регіонів. Це зменшує точність і корисність AI.

Ще гірше, коли одна країна тримає AI за кермом, це підсилює гонку озброєнь із далекосяжними наслідками. Наративи про гонку США і Китаю за перевагу в AI, часто подаються як змагання між OpenAI або Anthropic і Deepseek або Manus, і посилилися за участю урядів. Обидві країни активно інвестують у AI, розглядаючи його як стратегічний ресурс, подібно до ядерних можливостей у XX столітті. Якщо компанії, яким надає перевагу уряд, отримають доступ до найсучаснішого AI, вони зможуть контролювати трансформативний глобальний актив, отримуючи безпрецедентний економічний і політичний вплив.

Ця динаміка ризикує призвести до крайнього цензурування і контролю, коли супердержави диктують доступ до інструментів і даних AI. Менші країни можуть бути змушені приєднатися або до США, або до Китаю, імітуючи розподіл сил у часи холодної війни під час ядерної гонки. Наприклад, країни Африки та Південно-Східної Азії можуть стати залежними від супердержав і втратити автономію щодо своїх AI-майбутніх. Домінуюча країна може утримувати AI-інструменти цілком, ізолюючи суперників, або заповнити глобальні ринки системами, що пріоритетизують її власні наративи та інтереси.

Це не безпека; це рецепт нестабільності. Автономна зброя на базі AI може спричинити “вибухові війни”, коли системи швидше ескалують конфлікти, ніж люди зможуть втрутитися. Домінуюча держава може використовувати AI для глобального спостереження або економічного тиску, створюючи невдоволення і залежність.

Чому відкритість — єдиний шлях

Створення справедливого AI вимагає внесків з усіх куточків світу, але централізовані системи мають непропорційний вплив.

Наприклад, рішення Anthropic раптово обмежити доступ Windsurf до моделей Claude 3.x без попередньої співпраці або прозорості демонструє, як закриті постачальники AI можуть односторонньо контролювати критичні ресурси. Такі дії не лише пріоритетизують корпоративний контроль над колективним прогресом, а й обмежують можливості нових гравців будувати на спільній інфраструктурі. Зростаючі закони про локалізацію даних ускладнюють доступ, роблячи міжнародну співпрацю єдиним шляхом до справді репрезентативних наборів даних.

AI підвищує нашу здатність мислити творчо, працювати ефективніше і швидше вирішувати проблеми. Але щоб ці здобутки приносили користь усім, потрібен глобальний, відкритий і спільний підхід.

Якщо розвиток залишиться зосередженим у кількох країнах (або корпораціях), ми ризикуємо гальмувати інновації, збільшувати нерівність і концентрувати важливі рішення щодо майбутнього цього зростання у руках занадто обмеженої кількості.

Моделі з відкритим кодом руйнують монополії та закриті системи. Коли розробники з Бангалору до Боготи можуть будувати на одній основі, ми отримуємо потік креативу, який жодна одна компанія не може наздогнати. Історія показує, що проекти з відкритим кодом, будь то у сфері програмного забезпечення чи науки, процвітають, оскільки вони залучають глобальний пул талантів і ідей. AI — не виняток.

Децентралізація так само важлива. Централізовані системи є крихкими, вразливими до єдиних точок відмови і схильними до зловживань. Децентралізований підхід розподіляє ризик і відповідальність. Варто лише поглянути на нещодавній глобальний збій ChatGPT, щоб побачити, що трапляється, коли централізовані сервери виходять з ладу. Це було дратівливо для деяких, серйозно для інших.

А що, якщо ми станемо ще більш залежними від AI у сферах охорони здоров’я, інфраструктури, освіти або реагування на надзвичайні ситуації? Уявіть інфраструктуру AI, яка не зруйнується, якщо одна країна натисне кнопку або одна компанія перемкне перемикач. Це майбутнє, яке нам потрібно — таке, де жоден гравець не тримає всі ключі.

Заклик до цифрового інтернаціоналізму

Тому, коли мене запитують: “Хто має керувати AI: Америка чи Китай?” — моя відповідь є нюансованою. Нам потрібен цифровий інтернаціоналізм: спільні інструменти, стандарти, відповідальність. AI — це не нафта чи сталь. Це не ресурс для накопичення або зброя для застосування. Це технологія, яка переосмислює спосіб нашого життя, роботи і розв’язання найскладніших проблем світу. Тому сприймати її як національний актив або корпоративний трофей — це неправильне розуміння її природи і ризик для її майбутнього.

Європейський акт про права в AI, державна модель Китаю і ринково-орієнтований підхід США мають свої сильні і слабкі сторони, але жоден не є цілком відповіддю. Нам потрібен діалог, а не домінування. Решта світу, Індія, Бразилія, Нігерія та інші, мають рівний інтерес у цій технології. Ми не можемо довіряти одній країні, якою б доброю вона не була, визначати правила. І ми не можемо дозволити гонку озброєнь, де AI стане інструментом домінування, а не прогресу.

Глобальне управління не означає втрату контролю. Це означає встановлення базових стандартів доступу і відповідальності, що вигідні всім. Фреймворки з відкритим кодом, прозора розробка і спільний нагляд можуть гарантувати, що AI служитиме людству, а не лише привілейованим. Америка може залишатися лідером, але не шляхом накопичення влади. Вона може вести за прикладом, створюючи системи, що працюють для світу і з ним, системи, що запрошують до участі, а не до виключення.


Про автора:

Hиманшу Тягі — професор Індійського інституту науки і співзасновник Sentient. Він провів фундаментальні дослідження в галузі теорії інформації, AI та криптографії, заснував кілька компаній у сферах крипто, AI і комунікацій. Himanshu прагне створювати технології та продукти для зв’язаного майбутнього, де інформаційні мережі, прискорені AI і криптовалютами, стимулюватимуть усі людські прагнення.

Він є лауреатом Молодіжної премії Національної академії наук Індії, нагороджений премією за ранню кар’єру від Університету Меріленд, обіймав посаду асоційованого редактора журналу Transactions on Information Theory і має кілька нагород за кращу статтю на провідних конференціях. Він опублікував книгу під назвою “Information-theoretic Cryptography” у видавництві Cambridge University Press.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити