Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Искусственный интеллект в Европе: что может означать Закон об ИИ
Фото Майко Аморима на Unsplash
Закон об ИИ (AI Act) по-прежнему остается лишь проектом, но инвесторы и владельцы бизнеса в Европейском союзе уже нервничают из‑за возможных итогов.
Сможет ли он помешать Европейскому союзу быть ценным конкурентом на глобальном рынке?
По словам регуляторов, это не так. Но давайте посмотрим, что происходит.
Закон об ИИ и оценка рисков
Закон об ИИ разделяет риски, создаваемые искусственным интеллектом, на разные категории, но прежде чем сделать это, он сужает определение искусственного интеллекта, включая только те системы, которые основаны на машинном обучении и логике.
Это нужно не только для того, чтобы отличать системы ИИ от более простых фрагментов ПО, но и помогает нам понять, почему ЕС хочет классифицировать риски.
Разные применения ИИ распределяются по категориям недопустимый риск, высокий риск и
низкий или минимальный риск. Практики, подпадающие под категорию недопустимого риска, считаются запрещенными.
К таким практикам относятся:
Есть некоторые сценарии использования, которые следует считать похожими на некоторые из практик, включенных в запрещенные действия, и которые попадают в категорию «практик с высоким риском».
К ним относятся системы, применяемые для набора сотрудников или для оценки и анализа кредитоспособности людей (и это может быть опасно для финтеха). В этих случаях все бизнесы, которые создают или используют подобный тип системы, должны выпускать подробные отчеты, чтобы объяснить, как работает система, и какие меры приняты, чтобы избегать рисков для людей, насколько это возможно, и быть максимально прозрачными.
Все выглядит ясным и корректным, но есть некоторые проблемы, которые регуляторам следует решить.
Закон выглядит слишком общим
Один из аспектов, который сильнее всего беспокоит владельцев бизнеса и инвесторов, — это недостаточное внимание к конкретным секторам ИИ.
Например, компании, которые производят и используют системы ИИ общего назначения, могут считаться использующими искусственный интеллект для сценариев применения с высоким риском.
Это означает, что им придется выпускать подробные отчеты, на что уйдут время и деньги. Поскольку для МСП нет исключений и поскольку они составляют наибольшую часть европейских экономик, со временем они могут стать менее конкурентоспособными.
И именно разница между компаниями США и европейскими компаниями в сфере ИИ вызывает серьезные опасения: на самом деле у Европы нет крупных компаний по ИИ, как в США, поскольку среда ИИ в Европе в основном создается МСП и стартапами.
Согласно опросу, проведенному appliedAI, подавляющее большинство инвесторов будет избегать инвестирования в стартапы, помеченные как «высокорисковые», именно из‑за сложности, связанной с этой классификацией.
ChatGPT изменил планы ЕС
Регуляторы ЕС должны были закрыть документ 19 апреля, но обсуждение, связанное с разными определениями систем ИИ и их сценариями использования, отложило передачу окончательного проекта.
Кроме того, технологические компании показали, что не все из них согласны с текущей версией документа.
Больше всего задержек вызвал момент, связанный с разграничением между моделью(ями) фундамента и ИИ общего назначения.
Примером моделей фундамента ИИ является ChatGPT от OpenAI: эти системы обучаются с использованием больших объемов данных и могут генерировать любой тип результата.
ИИ общего назначения включает те системы, которые можно адаптировать под разные сценарии использования и отрасли.
Регуляторы ЕС хотят строго регулировать модели фундамента, поскольку они могут создавать больше рисков и негативно влиять на жизнь людей.
Как США и Китай регулируют ИИ
Если посмотреть на то, как регуляторы ЕС обращаются с ИИ, бросается в глаза кое-что: похоже, регуляторы менее склонны к сотрудничеству.
В США, например, администрация Байдена искала публичные комментарии по безопасности систем вроде ChatGPT, прежде чем разрабатывать возможную нормативную рамку.
В Китае правительство регулирует ИИ и сбор данных уже много лет, и главная его обеспокоенность по‑прежнему связана с социальной стабильностью.
Пока что страна, которая выглядит лучше всего позиционированной в регулировании ИИ, — это Великобритания: она предпочла «легкий» подход, но не секрет, что Великобритания хочет стать лидером в принятии ИИ и финтеха.
Финтех и Закон об ИИ
Когда речь идет о компаниях и стартапах, которые предоставляют финансовые услуги, ситуация становится еще более сложной.
Действительно, если Закон останется в текущей версии, финтехам придется быть привязанными не только к текущим финансовым нормативам, но и к этой новой нормативной рамке.
Тот факт, что оценка кредитоспособности может быть обозначена как сценарий применения с высоким риском, — лишь пример бремени, которое финтех‑компании должны нести: это помешает им быть столь же гибкими, как прежде, для привлечения инвестиций и сохранения конкурентоспособности.
Заключение
Как отметил Питер Сарлин, CEO Silo AI, проблема не в регулировании, а в плохом регулировании.
Слишком общие формулировки могут навредить инновациям и всем компаниям, участвующим в производстве, дистрибуции и использовании продуктов и услуг на базе ИИ.
Если инвесторы ЕС будут обеспокоены потенциальными рисками, которые несет маркировка, указывающая, что стартап или компания попадает в категорию «высокого риска», среда ИИ в Европейском союзе может получить негативное влияние, тогда как США ищут публичные комментарии, чтобы улучшить свою технологию, а Китай уже имеет четкое мнение о том, как регулировать искусственный интеллект.
По словам Робин Рём, соосновательницы Apheris, один из возможных сценариев заключается в том, что стартапы переедут в США — страну, которой, возможно, есть что терять в контексте блокчейна и криптовалют, но которая может выиграть гонку за ИИ.
Если вы хотите узнать больше о финтехе и открыть для себя новости, события и мнения в финтехе, подпишитесь на рассылку FTW Newsletter!