Індустрія короткометражних AI-вистав має пройти серйозну перевірку на відповідність вимогам

robot
Генерація анотацій у процесі

2 квітня Асоціація організацій у сфері радіомовлення та телебачення Китаю спільно з Комітетом акторів (далі — «Комітет акторів CГБЛ за участі широкого об’єднання») опублікувала заяву, прямо вказавши на правопорушення, пов’язані з нинішніми практиками підміни обличчя за допомогою ШІ, клонуванням голосу та довільним спотворенням аудіовізуальних матеріалів.

У заяві зазначено, що будь-який суб’єкт без письмової авторизації самого актора забороняється самовільно збирати, використовувати, синтезувати та поширювати відповідні відео, голосові дані й виняткові мистецькі образи. Заява особливо підкреслює: навіть якщо позначати як «не для комерційного використання», «публічне поширення» або «персональна авторська переробка (другорядний контент)», усе одно доведеться нести повну відповідальність за правопорушення.

У заяві міститься вимога: мережеві платформи, зокрема платформи для коротких відео, прямих трансляцій та розповсюдження кіно/відео, мають суворо виконувати обов’язок покладеної на них відповідальності за перевірку контенту, створити довгостроковий механізм перевірки та підтвердження авторизації для AI-видимого сценічного контенту, а також негайно та повністю здійснити перевірку, вилучення з публічного доступу та демонтаж наявних правопорушних матеріалів. Платформи, що здійснюють розробку технологій ШІ та надають послуги, також повинні посилити обов’язки попередньої перевірки, ретельно перевіряючи авторизаційні повноваження для матеріалів, завантажених користувачами, зокрема для портретів акторів і голосових/аудіовізуальних фрагментів.

У заяві зазначено, що Комітет акторів CГБЛ розпочне регулярний моніторинг правопорушень у всій мережі, нотаріальне засвідчення доказів (фіксацію в доказовій формі) та дії щодо масового захисту прав. Також буде притягнуто до відповідальності у цивільному, адміністративному і навіть кримінальному порядку осіб та установ, які навмисно порушують, а також платформи, що не виконали обов’язки щодо перевірки.

За неповними даними, лише за перші 3 місяці 2026 року в країні вже сталося кілька випадків, коли актори зверталися із захистом прав щодо AI-коротких серіалів. Наприклад, 20 березня акторка Ділраба подала позов про AI-підміну обличчя в короткометражному серіалі; у суді першої інстанції вона виграла, а суд визнав, що виробник і платформа трансляції порушили право на зображення. Окрім акторів повнометражних/довгих серіалів, актори озвучування, зокрема Цзі Гуаньлін і Лю Яньтін, також упродовж цього року публічно звернулися із вимогою припинити порушення прав на голос.

Дослідник і керівник напряму досліджень у DataEye, Цзюнь Цзунь, у коментарі кореспонденту з «Сек’юрітіз-дайджест» зазначив: заява Комітету акторів CГБЛ — це важливе доповнення на рівні галузевого саморегулювання; вона разом із політикою нагляду формує синергію. Це означає, що регулювання AI-контенту переходить у стадію «повного ланцюга та сильної обов’язковості», а очищення (перезавантаження) на траєкторії AI-коротких серіалів прискорюється.

«Для галузі команди малих і середніх коротких серіалів, які покладаються на “крадіжку обличчя”, будуть швидко усунені, а галузевий поріг істотно підвищиться; провідні платформи та офіційні виробничі компанії прискорять розбудову відповідного (комплаєнс) AI-контенту, укладатимуть з акторами договори про виняткову авторизацію та просуватимуть застосування технологій ШІ в межах відповідної нормативної рамки. Заява, оприлюднена Комітетом акторів CГБЛ, чітко визначає основну відповідальність платформ, і це ще більше змінить галузеву ситуацію, де “великий потік, малий контроль”. Платформи повинні створити систему перевірки авторизації акторів, здійснювати попередній аудит AI-синтезованого контенту: контент без авторизації не може виходити в ефір; провести всебічну перевірку, вилучити з доступу наявні правопорушні твори, зберігати дані про правопорушення протягом усього процесу, співпрацювати з отриманням доказів і встановленням першоджерел (походження), а платформи, що порушують правила, нестимуть ризик санкцій з боку регулятора та галузевої відповідальності. Платформи для коротких відео та коротких серіалів посилять контроль AI-контенту, а такі матеріали, як AI-підміна обличчя та імітація голосу, стануть основними об’єктами для ретельної перевірки». — так сказав Цзюнь Цзунь.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$2.23KХолдери:1
    0.00%
  • Рин. кап.:$2.26KХолдери:2
    0.07%
  • Рин. кап.:$2.22KХолдери:1
    0.00%
  • Рин. кап.:$2.23KХолдери:1
    0.00%
  • Рин. кап.:$2.23KХолдери:0
    0.00%
  • Закріпити