Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Искусственный интеллект в Европе: что может означать Закон об ИИ
Фото: Маико Аморим на Unsplash
Закон об ИИ (AI Act) по-прежнему остается лишь проектом, но инвесторы и владельцы бизнеса в Европейском союзе уже нервничают из‑за возможных последствий.
Поможет ли это Европейскому союзу не потерять ценную роль сильного конкурента на глобальной арене?
По словам регуляторов, дело обстоит не так. Но давайте посмотрим, что происходит.
Закон об ИИ и оценка рисков
Закон об ИИ распределяет риски, создаваемые искусственным интеллектом, по разным категориям, но прежде чем сделать это, он сужает определение искусственного интеллекта, включая только те системы, которые основаны на машинном обучении и логике.
Это нужно не только для того, чтобы отличать системы ИИ от более простых программных продуктов, но и помогает нам понять, почему ЕС хочет категоризировать риск.
Разные варианты применения ИИ классифицируются как неприемлемый риск, высокий риск и
низкий или минимальный риск. Практики, подпадающие под категорию неприемлемого риска, считаются как запрещенные.
К этому типу практик относятся:
Есть некоторые сценарии использования, которые следует считать схожими с некоторыми практиками, включенными в запрещенные действия, и которые относятся к категории практик «высокого риска».
К ним относятся системы, применяемые для найма работников или для оценки и анализа кредитоспособности людей (и это может быть опасно для fintech). В этих случаях все компании, которые создают или используют такой тип системы, должны выпускать подробные отчеты, чтобы объяснить, как работает система, и какие меры принимаются, чтобы избегать рисков для людей, а также быть максимально прозрачными.
Все выглядит понятным и корректным, но есть определенные проблемы, которые регуляторы должны решить.
Закон слишком общий
Одним из аспектов, который больше всего тревожит владельцев бизнеса и инвесторов, является недостаток внимания к конкретным секторам ИИ.
Например, те компании, которые производят и используют AI-системы общего назначения, могут рассматриваться как использующие искусственный интеллект для сценариев применения с высоким риском.
Это означает, что им придется выпускать подробные отчеты, на которые уйдет время и деньги. Поскольку для МСП нет исключений, и поскольку именно они составляют самую большую часть европейских экономик, они со временем могут стать менее конкурентоспособными.
И именно разница между американскими и европейскими компаниями в сфере ИИ вызывает серьезные опасения: на самом деле в Европе нет крупных компаний по ИИ, как в США, потому что в Европе среда для ИИ в основном создается МСП и стартапами.
Согласно опросу, проведенному appliedAI, подавляющее большинство инвесторов будет избегать инвестиций в стартапы, помеченные как «высокорисковые», именно из‑за сложности, связанной с такой классификацией.
ChatGPT изменил планы ЕС
Европейским регуляторам следовало закрыть документ 19 апреля, но обсуждение, связанное с различными определениями AI-систем и сценариями их использования, задержало выпуск финального проекта.
Кроме того, технологические компании показали, что не все из них согласны с текущей версией документа.
Больше всего задержек вызвала дифференциация между foundation models и general purpose AI.
Примером foundation model в области ИИ является ChatGPT от OpenAI: эти системы обучаются на больших объемах данных и способны генерировать любой тип выходных данных.
General purpose AI включает те системы, которые можно адаптировать под разные сценарии использования и отрасли.
Европейские регуляторы хотят строго регулировать foundation models, поскольку они могут создавать больше рисков и негативно влиять на жизнь людей.
Как США и Китай регулируют ИИ
Если взглянуть на то, как европейские регуляторы обращаются с ИИ, бросается в глаза одно: похоже, регуляторы менее готовы к сотрудничеству.
Например, в США администрация Байдена искала публичные комментарии по безопасности систем вроде ChatGPT, прежде чем разрабатывать возможную нормативно-правовую базу.
В Китае правительство регулирует ИИ и сбор данных годами, и главная его обеспокоенность по‑прежнему связана с социальной стабильностью.
Пока что страна, которая выглядит лучше всего подготовленной с точки зрения регулирования ИИ, — это Великобритания: она предпочла «легкий» подход — но не секрет, что Великобритания хочет стать лидером в принятии ИИ и fintech.
Fintech и Закон об ИИ
Когда речь идет о компаниях и стартапах, которые предоставляют финансовые услуги, ситуация еще сложнее.
В действительности, если Закон останется в нынешнем виде, fintech будут нужны не только привязка к текущим финансовым нормативным требованиям, но и наличие этой новой регуляторной рамки.
Тот факт, что оценка кредитоспособности может быть помечена как сценарий применения с высоким риском, — лишь пример бремени, которое fintech-компании должны нести, не позволяя им быть столь же гибкими, как раньше, чтобы привлекать инвестиции и сохранять конкурентоспособность.
Вывод
Как отметил Питер Сарлин (Peter Sarlin), CEO Silo AI, проблема не в регулировании, а в плохом регулировании.
Слишком общий подход может навредить инновациям, а также всем компаниям, участвующим в производстве, распространении и использовании AI-систем и продуктов и услуг на их основе.
Если инвесторы в ЕС будут обеспокоены потенциальными рисками, которые несет маркировка о том, что стартап или компания относится к категории «высокого риска», то среда для ИИ в Европейском союзе может получить негативное влияние, тогда как США ищут публичные комментарии, чтобы улучшить свою технологию, а Китай уже имеет четкое мнение о том, как регулировать искусственный интеллект.
По словам Робина Рём (Robin Röhm), сооснователя Apheris, один из возможных сценариев заключается в том, что стартапы переедут в США — в страну, которой, возможно, есть что терять с точки зрения блокчейна и криптовалют, но которая могла бы выиграть гонку в области ИИ.
Если вы хотите узнать больше о fintech и открыть для себя новости, события и мнения в сфере fintech, подпишитесь на рассылку FTW Newsletter!