Штучний інтелект у Європі: що може означати Закон про ШІ

Фотографія Maico Amorim на Unsplash


Закон про ШІ все ще є лише проектом, але інвестори та бізнес-володарі в Європейському Союзі вже нервують через можливі наслідки.

Чи запобігатиме він тому, щоб Європейський Союз залишався цінним конкурентом у глобальному просторі?

За словами регуляторів, це не так. Але давайте подивимося, що відбувається.

Закон про ШІ та оцінка ризиків

Закон про ШІ ділить ризики, пов’язані з штучним інтелектом, на різні категорії ризиків, але перед цим він звужує визначення штучного інтелекту, включаючи лише ті системи, що базуються на машинному навчанні та логіці.

Це не лише допомагає відрізнити системи ШІ від простішого програмного забезпечення, але й допомагає зрозуміти, чому ЄС прагне класифікувати ризики.

Різні застосування ШІ класифікуються на неприйнятний ризик, високий ризик та
низький або мінімальний ризик. Практики, що належать до категорії неприйнятного ризику, вважаються забороненими.

До таких практик належать:

*   Практики, що використовують техніки, які працюють поза свідомістю людини,  
*   Практики, що прагнуть експлуатувати вразливі частини населення,  
*   Системи на базі ШІ, які класифікують людей за особистими характеристиками або поведінкою,  
*   Системи на базі ШІ, що використовують біометричну ідентифікацію у громадських місцях.  

Є кілька випадків використання, які слід вважати подібними до деяких практик, включених до заборонених, і вони належать до категорії “високого ризику”.

До них належать системи, що використовуються для найму працівників або для оцінки та аналізу кредитоспроможності людей (, і це може бути небезпечним для фінтеху). У таких випадках усі компанії, що створюють або використовують такі системи, повинні подавати детальні звіти, щоб пояснити, як працює система, та заходи, вжиті для уникнення ризиків для людей і максимальної прозорості.

Все здається зрозумілим і правильним, але існують деякі проблеми, які регулятори мають вирішити.

Закон здається занадто загальним

Один із аспектів, що найбільше турбує бізнес-володарів та інвесторів, — це відсутність уваги до конкретних секторів ШІ.

Наприклад, компанії, що виробляють і використовують системи на базі ШІ для загальних цілей, можуть вважатися тими, що застосовують штучний інтелект для високоризикових випадків.

Це означає, що їм потрібно буде готувати детальні звіти, що потребують часу та коштів. Оскільки малі та середні підприємства (МСП) не є винятком і становлять найбільшу частку європейської економіки, з часом вони можуть стати менш конкурентоспроможними.

І саме різниця між американськими та європейськими компаніями ШІ викликає серйозні занепокоєння: насправді, у Європі немає великих компаній ШІ, як у США, оскільки середовище ШІ в Європі здебільшого створюється МСП та стартапами.

За даними опитування, проведеного appliedAI, більшість інвесторів уникатимуть інвестицій у стартапи, позначені як “високоризикові”, саме через складність цієї класифікації.

ChatGPT змінив плани ЄС

Регулятори ЄС мали закрити документ 19 квітня, але обговорення різних визначень систем на базі ШІ та їх застосувань затримало подання остаточного проекту.

Більше того, технологічні компанії показали, що не всі з них погоджуються з поточною версією документа.

Найбільше затримок спричинило розмежування між фундаментальними моделями та загальним призначенням ШІ.

Прикладом фундаментальних моделей ШІ є ChatGPT від OpenAI: ці системи навчаються на великих обсягах даних і можуть генерувати будь-який вид вихідних даних.

Загальне призначення ШІ включає системи, які можна адаптувати до різних випадків використання та секторів.

Регулятори ЄС прагнуть строго регулювати фундаментальні моделі, оскільки вони можуть нести більше ризиків і негативно впливати на життя людей.

Як США та Китай регулюють ШІ

Якщо поглянути на те, як регулятори ЄС ставляться до ШІ, видно одну особливість: здається, регулятори менш схильні до співпраці.

У США, наприклад, адміністрація Байдена шукала громадські коментарі щодо безпеки систем, таких як ChatGPT, перед розробкою можливих нормативних рамок.

У Китаї уряд вже роками регулює ШІ та збір даних, і його головною турботою залишається соціальна стабільність.

Поки що країною, яка, здається, добре позиціонується у регулюванні ШІ, є Великобританія, яка обрала “легкий” підхід — але не секрет, що Великобританія прагне стати лідером у впровадженні ШІ та фінтеху.

Фінтех і Закон про ШІ

Що стосується компаній і стартапів, що надають фінансові послуги, ситуація ще складніша.

Якщо Закон залишиться у поточній версії, фінтех-компаніям доведеться дотримуватися не лише існуючих фінансових правил, а й цього нового регуляторного каркасу.

Факт, що оцінка кредитоспроможності може бути позначена як високоризикова, — це лише один із прикладів навантаження, яке мають нести фінтех-компанії, що заважає їм бути такою ж гнучкою, як раніше, залучати інвестиції та залишатися конкурентоспроможними.

Висновок

Як зазначив Пітер Сарлін, генеральний директор Silo AI, проблема полягає не в регулюванні, а в поганому регулюванні.

Занадто загальний підхід може нашкодити інноваціям і всім компаніям, що займаються виробництвом, розповсюдженням і використанням продуктів і послуг на базі ШІ.

Якщо інвестори в ЄС будуть стурбовані потенційними ризиками, пов’язаними з позначкою “високий ризик”, то середовище ШІ в Європейському Союзі може зазнати негативного впливу, тоді як США шукають громадські коментарі для покращення своїх технологій, а Китай уже має чітку позицію щодо регулювання штучного інтелекту.

За словами Робіна Рьома, співзасновника Apheris, одним із можливих сценаріїв є те, що стартапи переїдуть у США — країну, яка, можливо, має багато втрат у галузі блокчейну та криптовалют, але може виграти у гонці ШІ.


Якщо хочете більше дізнатися про фінтех і відкривати новини, події та думки у цій сфері, підписуйтеся на FTW Newsletter!

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити