Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Искусственный интеллект в Европе: что может означать Закон об ИИ
Фото Маико Аморима на Unsplash
Закон об ИИ по-прежнему пока лишь проект, но инвесторы и владельцы бизнеса в Европейском союзе уже нервничают из‑за возможных итогов.
Поможет ли он не допустить, чтобы Европейский союз оставался ценным конкурентом на глобальном рынке?
По словам регуляторов, нет. Но давайте посмотрим, что происходит.
Закон об ИИ и оценка рисков
Закон об ИИ делит риски, создаваемые искусственным интеллектом, на разные категории риска, но прежде чем сделать это, он сужает определение искусственного интеллекта, включая только те системы, которые основаны на машинном обучении и логике.
Это служит не только цели отличать системы ИИ от более простых программных решений, но и помогает понять, почему ЕС хочет категоризировать риск.
Различные способы применения ИИ классифицируются как неприемлемый риск, высокий риск и
низкий или минимальный риск. Практики, подпадающие под категорию неприемлемого риска, считаются запрещенными.
К таким практикам относятся:
Есть некоторые варианты использования, которые следует считать похожими на некоторые практики, включенные в запрещенную деятельность, и которые относятся к категории практик «высокого риска».
Среди них — системы, используемые для найма работников или для оценки и анализа кредитоспособности людей (и это может быть опасно для fintech). В этих случаях все компании, которые создают или используют такие системы, должны подготавливать подробные отчеты, чтобы объяснить, как работает система, и какие меры принимаются, чтобы избегать рисков для людей, и при этом быть максимально прозрачными.
Всё выглядит ясным и корректным, но есть некоторые проблемы, которые регуляторы должны решить.
Закон выглядит слишком общим
Один из аспектов, который больше всего беспокоит владельцев бизнеса и инвесторов, — недостаточное внимание к конкретным секторам ИИ.
Например, компании, которые производят и используют ИИ‑системы для общих целей, могут считаться использующими искусственный интеллект для сценариев применения с высоким риском.
Это означает, что им нужно будет готовить подробные отчеты, которые требуют времени и денег. Поскольку для МСП не будет исключений и потому, что они составляют самую большую часть экономик Европы, со временем они могут стать менее конкурентоспособными.
И именно различие между американскими и европейскими компаниями в сфере ИИ вызывает серьезные опасения: на самом деле в Европе нет крупных компаний по ИИ, как в США, поскольку среда ИИ в Европе в основном создается МСП и стартапами.
По данным опроса, проведенного appliedAI, подавляющее большинство инвесторов будет избегать инвестиций в стартапы, помеченные как «высокорисковые», именно из‑за сложностей, связанных с этой классификацией.
ChatGPT изменил планы ЕС
Регуляторы ЕС должны были закрыть документ 19 апреля, но обсуждение, связанное с разными определениями ИИ‑систем и вариантами их использования, задержало выпуск финального проекта.
Кроме того, технологические компании показали, что не все из них согласны с текущей версией документа.
Точка, которая больше всего вызвала задержки, — это различение foundation models и general purpose AI.
Примером ИИ‑foundation моделей является ChatGPT от OpenAI: эти системы обучаются на больших объемах данных и могут генерировать любой тип выходных данных.
General purpose AI включает те системы, которые можно адаптировать под разные сценарии использования и сектора.
Регуляторы ЕС хотят строго регулировать foundation models, поскольку они могут создавать больше рисков и отрицательно влиять на жизнь людей.
Как США и Китай регулируют ИИ
Если посмотреть на то, как регуляторы ЕС относятся к ИИ, бросается в глаза следующее: похоже, регуляторы менее склонны к сотрудничеству.
В США, например, администрация Байдена искала публичные комментарии по безопасности систем вроде ChatGPT, прежде чем разрабатывать возможную нормативно‑правовую базу.
В Китае правительство регулирует ИИ и сбор данных уже много лет, и главной его заботой остается социальная стабильность.
На данный момент страна, которая, судя по всему, лучше всего расположена к регулированию ИИ, — это Великобритания, предпочитающая «легкий» подход — но не секрет, что Великобритания хочет стать лидером в принятии ИИ и fintech.
Fintech и Закон об ИИ
Когда речь идет о компаниях и стартапах, предоставляющих финансовые услуги, ситуация становится еще более сложной.
В действительности, если Закон останется в виде текущей версии, fintech‑компаниям придется быть связаны не только с текущими финансовыми регуляциями, но и с новой этой нормативно‑правовой рамкой.
Тот факт, что оценка кредитоспособности может быть обозначена как сценарий применения с высоким риском, — лишь пример бремени, которое fintech‑компании должны нести, не позволяя им быть столь же гибкими, как раньше, чтобы привлекать инвестиции и оставаться конкурентоспособными.
Заключение
Как отметил Питер Сарлин, генеральный директор Silo AI, проблема не в регулировании, а в плохом регулировании.
Слишком общие формулировки могут нанести вред инновациям и всем компаниям, участвующим в производстве, распределении и использовании продуктов и услуг на основе ИИ.
Если инвесторы ЕС будут обеспокоены потенциальными рисками, которые несет маркировка, говорящая, что стартап или компания относится к категории «высокого риска», среда ИИ в Европейском союзе может пострадать в негативную сторону, в то время как США ищут публичные комментарии, чтобы улучшить свою технологию, а Китай уже имеет четкое мнение о том, как регулировать искусственный интеллект.
По словам Робин Рём, сооснователя Apheris, один из возможных сценариев состоит в том, что стартапы переедут в США — страну, которая, возможно, многое теряет, когда речь заходит о блокчейне и криптовалютах, но которая могла бы выиграть гонку в сфере ИИ.
Если вы хотите узнать больше о fintech и открыть новости, события и мнения о fintech, подпишитесь на рассылку FTW Newsletter!