Deepfake использует огромное количество порнографических видео для обучения ИИ: но закон защищает только лицо, а никто никогда не задумывается, кому принадлежит это тело?

Обсуждение порно deepfake-ов долго сосредоточено на сгенерированном лице, игнорируя чье тело оно принадлежит; более 10 000 ТБ контента для взрослых, предположительно использовались для обучения модели nudify.
(Предыстория: исследование Калифорнийского университета о явлении «AI-замутнение»: 14% офисных работников сходят с ума из-за агентов и автоматизации, 40% готовы уволиться)
(Дополнительный фон: Срочные новости» — Хуанг Жэньхун в последний момент сел на Air Force One «в сопровождении Путина в Китай», экспорт чипов NVIDIA стал предметом обсуждения)

Содержание статьи

Переключить

  • Тело как обучающий материал
  • Временная дислокация контрактов
  • Ирония закона Take It Down Act

Каждый раз, когда говорят о порно deepfake, фокус почти всегда на лице — на том, что его налепили, чтобы показать её в том, чего она никогда не делала. Но есть другая проблема, о которой почти никто не говорит: чьё это тело?

По сообщению «technologyreview», 37-летняя психолог-консультант из Нью-Йорка Дженнифер в 2023 году использовала программное обеспечение распознавания лиц, чтобы найти свои старые порнофильмы десятилетней давности, и обнаружила видео, которое она никогда не видела: её тело, налепленное на чужое лицо.

Она узнала по фону, что сцена снята в 2013 году, и поняла: «Кто-то использовал моё тело для deepfake».

Тело как обучающий материал

Термин «deepfake» появился в ноябре 2017 года, когда пользователь Reddit «deepfakes» налепил лица знаменитостей на тела порноактеров. С тех пор тело порноактеров стало одним из самых часто используемых материалов для кражи, и эта ситуация «продолжается постоянно», говорит юрист, специализирующийся на индустрии развлечений для взрослых, Кори Сильверштейн.

Но характер проблемы изменился. Тела порноактеров больше не просто извлекаются для отдельных видео, а используются как обучающий материал, чтобы научить ИИ генерировать «реалистичные обнажённые изображения», как двигаться, как выглядеть правдоподобно. Этот процесс происходит без согласия и практически не отслеживается.

Коммерческое приложение «nudify» построено на этом: достаточно загрузить фотографию в одежде, чтобы получить фальшивое обнажённое изображение. Такие приложения, скорее всего, используют более 10 000 ТБ онлайн-контента для взрослых в качестве обучающего материала, и создатели практически лишены возможности защиты.

Эксперт по цифровой криминалистике из UC Berkeley, Хани Фарид, говорит: «Это всё — черные ящики». Но учитывая распространенность контента для взрослых в интернете, предполагается, что его используют для обучения ИИ — «это разумное предположение».

Проблема не ограничивается обучающими данными. ИИ уже способен полностью воспроизвести внешний вид и голос порноактеров. Недавно известная поклонница Таня Тейт узнала, что её фанаты заплатили 20 тысяч долларов за чат с AI-версией «её», созданной мошенниками. После этого несколько поклонников обвинили Тейт лично и распространили ложные сведения.

Компания по защите авторских прав Takedown Piracy с помощью цифровых отпечатков удалила с одного только Google 130 миллионов нарушающих авторские права видео, и даже если видео изменено или лицо заменено, цифровой отпечаток позволяет определить исходный материал.

Временная дислокация контрактов

Многие порноактеры подписывали контракты много лет назад, содержащие пункт о том, что «издатель может использовать любые существующие или будущие технологии». Тогда предполагалось, что речь идет о VHS и DVD.

Никто не предвидел, что «будущие технологии» означают: использование вашего контента для обучения ИИ, чтобы создать замену, способную заменить вас на работе. Доктор компьютерных наук из MIT, Стивен Каспер, отмечает, что актеры, начавшие карьеру до появления ИИ, не могли заранее согласовать его использование; эти риски «навязываются ретроспективно», так описывает Дженнифер.

Способности ИИ к обману также ускоряются. Исследование Фарида 2025 года показало, что точность распознавания AI-генерируемой речи составляет всего около 60%, что почти не отличается от случайных догадок.

Ирония закона Take It Down Act

Единственный федеральный закон США, касающийся deepfake, — это Take It Down Act, требующий, чтобы сайты удаляли несанкционированные интимные изображения (NCII) в течение 48 часов. Закон предназначен для защиты жертв, но может иметь противоположный эффект.

Профессор юридического факультета Университета Санта-Клары, Эрик Гольдман, отмечает, что любой может пожаловаться на легальный, согласованный с участниками контент, заявляя, что он — NCII, и требовать его удаления. Это превращает закон в потенциальный инструмент для цензуры, что совпадает с целью проекта 2025 по очистке интернета от порно.

По словам Гольдмана, в настоящее время американское законодательство не считает такие нарушения нарушением приватности, потому что «мы не знаем, кому возложить ответственность». ЕС, Великобритания и Австралия уже объявили о запрете приложений nudify, но эти приложения, как правило, появляются заново под другими именами после удаления.

Реба Рокет говорит: «AI-девушки делают всё, что ты хочешь, они не скажут «нет». Это меня пугает, особенно когда их используют для обучения моделей на реальных людях. А как только они попадают в сеть, — навсегда остаются там».

TRUMP-0,8%
NVDA1,04%
TAKE2,08%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закреплено