Искусственный интеллект в Европе: что может означать закон об ИИ

Фотография Маико Аморим на Unsplash


Закон об ИИ всё ещё находится в проекте, но инвесторы и владельцы бизнеса в Европейском союзе уже нервничают из-за возможных последствий.

Помешает ли он Европейскому союзу стать ценным конкурентом в глобальном пространстве?

По мнению регуляторов, — нет. Но давайте посмотрим, что происходит.

Закон об ИИ и оценка рисков

Закон об ИИ делит риски, связанные с искусственным интеллектом, на разные категории, но перед этим он сужает определение искусственного интеллекта, включив в него только системы, основанные на машинном обучении и логике.

Это не только помогает отличить системы ИИ от более простого программного обеспечения, но и помогает понять, почему ЕС хочет классифицировать риски.

Различные применения ИИ делятся на неприемлемый риск, высокий риск и
низкий или минимальный риск. Практики, попадающие под категорию неприемлемого риска, считаются запрещёнными.

К таким практикам относятся:

*   Практики, использующие техники, выходящие за пределы сознания человека,  
*   Практики, направленные на эксплуатацию уязвимых групп населения,  
*   Системы на базе ИИ, предназначенные для классификации людей по личным характеристикам или поведению,  
*   Системы на базе ИИ, использующие биометрическую идентификацию в общественных местах.  

Есть некоторые случаи использования, которые следует считать похожими на практики, включённые в запрещённые виды деятельности, и они попадают в категорию «высокорискованных» практик.

К ним относятся системы, используемые для найма работников или оценки кредитоспособности людей (, и это может быть опасно для финтеха). В таких случаях все компании, создающие или использующие такие системы, должны предоставлять подробные отчёты о том, как работает система и какие меры принимаются для минимизации рисков для людей и обеспечения максимальной прозрачности.

Всё кажется ясным и правильным, но есть некоторые проблемы, которые регуляторы должны решить.

Закон выглядит слишком общим

Один из аспектов, который больше всего беспокоит владельцев бизнеса и инвесторов, — это недостаточное внимание к конкретным секторам ИИ.

Например, компании, разрабатывающие и использующие системы ИИ для общих целей, могут считаться использующими искусственный интеллект для высокорискованных случаев.

Это означает, что им придётся готовить подробные отчёты, что требует времени и денег. Поскольку МСП не исключение, и поскольку они составляют большую часть европейской экономики, со временем они могут стать менее конкурентоспособными.

И именно разница между американскими и европейскими компаниями в области ИИ вызывает серьёзные опасения: в Европе нет крупных компаний в области ИИ, как в США, поскольку среда ИИ в Европе в основном создаётся МСП и стартапами.

По данным опроса, проведённого appliedAI, большинство инвесторов избегают инвестировать в стартапы, помеченные как «высокорискованные», именно из-за сложности такой классификации.

ChatGPT изменил планы ЕС

Регуляторы ЕС должны были завершить подготовку документа 19 апреля, но обсуждение различных определений систем на базе ИИ и их случаев использования задержало выпуск окончательного проекта.

Более того, технологические компании показали, что не все согласны с текущей версией документа.

Самым большим источником задержек стала разница между фундаментальными моделями и ИИ общего назначения.

Примером фундаментальных моделей ИИ является ChatGPT от OpenAI: эти системы обучаются на больших объёмах данных и могут генерировать любой вид вывода.

ИИ общего назначения включает системы, которые могут быть адаптированы под разные случаи использования и сектора.

Регуляторы ЕС хотят строго регулировать фундаментальные модели, поскольку они могут нести больше рисков и негативно влиять на жизнь людей.

Как регулируют ИИ в США и Китае

Если взглянуть на то, как регуляторы ЕС относятся к ИИ, выделяется одна особенность: кажется, регуляторы менее склонны к сотрудничеству.

В США, например, администрация Байдена искала общественные комментарии по безопасности систем, таких как ChatGPT, перед разработкой возможной нормативной базы.

В Китае правительство уже много лет регулирует ИИ и сбор данных, и его главная забота — социальная стабильность.

На сегодняшний день страна, которая кажется хорошо подготовленной к регулированию ИИ, — это Великобритания, которая предпочитает «лёгкий» подход — но не секрет, что Великобритания хочет стать лидером в области ИИ и финтеха.

Финтех и Закон об ИИ

Когда речь заходит о компаниях и стартапах, предоставляющих финансовые услуги, ситуация становится ещё сложнее.

На самом деле, если Закон останется в текущей редакции, финтех-компании должны будут соблюдать не только существующие финансовые регуляции, но и этот новый нормативный каркас.

Тот факт, что оценка кредитоспособности может быть признана высокорискованным случаем использования, — лишь пример бремени, которое должны нести финтех-компании, что мешает им быть так же гибкими, как раньше, привлекать инвестиции и оставаться конкурентоспособными.

Заключение

Как отметил Питер Сарлин, генеральный директор Silo AI, проблема не в регулировании, а в плохом регулировании.

Слишком общие правила могут навредить инновациям и всем компаниям, участвующим в производстве, распространении и использовании продуктов и услуг на базе ИИ.

Если инвесторы ЕС начнут опасаться потенциальных рисков, связанных с ярлыком «высокорискованный», это может негативно сказаться на развитии ИИ в Европейском союзе, в то время как США ищут общественные комментарии для улучшения своих технологий, а Китай уже ясно выразил свою позицию по регулированию искусственного интеллекта.

По словам Робина Рёма, соучредителя Apheris, одним из возможных сценариев является то, что стартапы переедут в США — страну, которая, возможно, многое теряет в области блокчейна и криптовалют, но может выиграть в гонке за ИИ.


Если хотите больше узнать о финтехе и открыть для себя новости, события и мнения в этой сфере, подпишитесь на рассылку FTW!

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить