Deepfake використовує велику кількість порнографічних відео для тренування ШІ: але закон захищає лише обличчя, ніхто ніколи не цікавився, кому належить це тіло?

Обговорення глибоких фейків AI у порнографії довго зосереджувалося на змінених обличчях, ігноруючи те, кому належить тіло; понад 10 000 ТБ дорослого контенту ймовірно використовувалися для тренування моделей nudify.
(Передісторія: дослідження Каліфорнійського університету про явище «AI-марення»: 14% працівників офісу зійшли з розуму через агентів та автоматизацію, 40% мають намір звільнитися)
(Додатковий фон: термінове повідомлення — Гуо Реньхуна в останню мить посадили на Air Force One «для супроводу Трампа під час візиту до Китаю», експорт чіпів NVIDIA став предметом обговорення)

Зміст статті

Перемикач

  • Тіло як тренувальні дані
  • Хронологічна дисонанс контрактів
  • Іронія закону Take It Down Act

Щоразу, коли говорять про AI-глибокі фейки у порнографії, увага майже завжди зосереджена на тому обличчі — на тому, що підроблено й накладено на когось, хто цього ніколи не робив. Але існує ще одна проблема, яку майже ніхто не піднімає: кому належить тіло?

Згідно з повідомленням «technologyreview», 37-річна психологічна терапевтка з Нью-Йорка Дженніфер у 2023 році за допомогою програмного забезпечення для розпізнавання облич шукає свої старі порнографічні відео, і знаходить одне, яке вона ніколи не бачила: її тіло, з накладеним іншим обличчям.

Вона впізнала сцену на фоні, зняту у 2013 році, і зрозуміла: «Хтось використав моє тіло для створення глибокого фейку.»

Тіло як тренувальні дані

Термін «глибокий фейк» з’явився у листопаді 2017 року, коли користувач Reddit «deepfakes» почав накладати обличчя знаменитостей на тіла акторів для дорослих. З того часу тіло дорослих творців стало найчастішим об’єктом крадіжки, і ця ситуація «триває постійно», каже юрист, спеціаліст з індустрії дорослого контенту Корі Сільверштейн.

Але характер проблеми змінився. Тіло дорослого актора більше не просто використовують для окремих відео, а як тренувальні дані для навчання AI створювати «реалістичні оголені тіла», рухатися і виглядати правдоподібно. Цей процес відбувається без інформованої згоди і майже не піддається відстеженню.

Бізнес-модель додатку «nudify» базується саме на цьому: достатньо завантажити фотографію у одязі, щоб отримати фальшиве оголене фото. Ймовірно, ці додатки використовують понад 10 000 ТБ онлайн-дорослого контенту для тренування, і творці майже не мають можливості отримати компенсацію.

Експерт з цифрової криміналістики з Каліфорнійського університету Берклі, Хані Фарід, каже: «Це все — чорні ящики». Але враховуючи поширеність дорослого контенту в інтернеті, припущення, що його використовують для тренування AI, є «розумним».

Проблема не обмежується лише тренувальними даними. AI вже здатен повністю відтворювати зовнішність і голос дорослих акторів. Творець Таня Тейт нещодавно дізналася, що відомий її фанат витратив 20 тисяч доларів на сексуальні розмови з AI-версією «неї», створеною шахраями. Після того, як кілька фанатів були обмануті, вони почали звинувачувати Тейт і поширювати неправдиву інформацію.

Компанія з правового захисту авторських прав Takedown Piracy за допомогою цифрових відбитків видалила з Google 130 мільйонів порушуючих відео, і навіть якщо відео змінюють або замінюють обличчя, цифровий відбиток дозволяє ідентифікувати оригінал.

Хронологічна дисонанс контрактів

Багато дорослих акторів підписували контракти ще багато років тому, які містили положення про те, що «видавець може використовувати будь-які існуючі або майбутні технології». Тоді уявляли, що це VHS і DVD.

Ніхто не передбачав, що «майбутні технології» означатимуть використання їхнього контенту для тренування AI, щоб створювати замінники, здатні замінити їхню роботу. Доктор комп’ютерних наук з MIT Стівен Каспер зазначає, що актори, які почали кар’єру до появи AI, не могли попередньо погодитися на його використання; ці ризики «застосовуються ззовні», так описує Дженніфер.

Здатність AI до обману також швидко зростає. Дослідження Фаріда 2025 року показало, що точність розпізнавання AI-згенерованої мови становить лише близько 60%, що не набагато краще за випадкове вгадування.

Іронія закону Take It Down Act

Єдине федеральне законодавство США, що стосується глибоких фейків, — це Take It Down Act, яке вимагає від сайтів видаляти незафіксовані особисті відео (NCII) протягом 48 годин. Закон має на меті захистити жертв, але може мати протилежний ефект.

Професор юридичних наук з університету Санта-Клари Ерик Голдман зазначає, що будь-хто може подати скаргу на легальний, за згодою сторін, дорослий контент, стверджуючи, що це NCII, і змусити платформу його видалити. Це робить закон потенційним інструментом для очищення, що відповідає цілі проекту 2025 — очистити інтернет від порнографії.

Зараз у США цей тип порушень не вважається порушенням приватності, оскільки «ми не знаємо, кому саме це слід доручити відповідальність», — каже Голдман. Європейський Союз, Великобританія та Австралія вже оголосили про обмеження додатків nudify, але ці додатки часто з’являються знову під іншими іменами після видалення.

Реба Рокет каже: «AI-дівчата роблять усе, що ти захочеш, вони не кажуть ні. Це мене лякає, особливо коли їх тренують на реальних людях. А коли вони потрапляють в інтернет, вони там назавжди.»

TRUMP-1,48%
NVDA-2,22%
TAKE3,57%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріплено