Дебаты о глубокой подделке стали еще горячее. Общественный советник, организация по защите прав потребителей, призывает OpenAI убрать из рынка свой видеогенератор на базе ИИ Sora — ссылаясь на серьезные опасения по поводу потенциального злоупотребления этой технологии.
Их аргумент? Способность Sora создавать гиперреалистичные фальшивые видео может использоваться для распространения дезинформации в масштабах, которых мы еще не видели. Подумайте о вмешательстве в выборы, мошенничестве с личными данными или скоординированных кампаниях дезинформации, размывающих границу между реальностью и вымыслом.
Что отличает эту ситуацию от предыдущих споров о ИИ, так это время. Мы вступаем в эпоху, когда инструменты для синтетических медиа становятся доступны обычным пользователям — не только технологическим элитам или государственным актерам. Барьер для создания убедительного фальшивого контента быстро исчезает.
OpenAI еще не отключила Sora, но давление растет. Некоторые представители индустрии утверждают, что инновации не должны подавляться гипотетическими рисками, в то время как другие указывают на отсутствие надежных мер безопасности, встроенных в эти инструменты до их выпуска.
Общая картина такова: по мере того как генеративный ИИ быстро развивается, нормативные рамки отстают. Будь то синтез видео, клонирование голоса или генерация текста — вопрос не только в том, что могут делать эти инструменты, а в том, готово ли общество к последствиям их масштабного использования.
Скандал с Sora может стать предварительным примером будущих конфликтов. Как сбалансировать технологический прогресс и общественную безопасность? И кто решит, когда инструмент становится слишком опасным для выпуска?
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
8 Лайков
Награда
8
4
Репост
Поделиться
комментарий
0/400
GasSavingMaster
· 11-13 00:03
Опять пытаются спровоцировать паніку и создать ажіотаж.
Посмотреть ОригиналОтветить0
NotFinancialAdvice
· 11-13 00:03
Что делать, если никто не заботится? Дети играют как попало.
Посмотреть ОригиналОтветить0
MrRightClick
· 11-13 00:01
Все новые вещи хотят запретить, действительно смешно
Дебаты о глубокой подделке стали еще горячее. Общественный советник, организация по защите прав потребителей, призывает OpenAI убрать из рынка свой видеогенератор на базе ИИ Sora — ссылаясь на серьезные опасения по поводу потенциального злоупотребления этой технологии.
Их аргумент? Способность Sora создавать гиперреалистичные фальшивые видео может использоваться для распространения дезинформации в масштабах, которых мы еще не видели. Подумайте о вмешательстве в выборы, мошенничестве с личными данными или скоординированных кампаниях дезинформации, размывающих границу между реальностью и вымыслом.
Что отличает эту ситуацию от предыдущих споров о ИИ, так это время. Мы вступаем в эпоху, когда инструменты для синтетических медиа становятся доступны обычным пользователям — не только технологическим элитам или государственным актерам. Барьер для создания убедительного фальшивого контента быстро исчезает.
OpenAI еще не отключила Sora, но давление растет. Некоторые представители индустрии утверждают, что инновации не должны подавляться гипотетическими рисками, в то время как другие указывают на отсутствие надежных мер безопасности, встроенных в эти инструменты до их выпуска.
Общая картина такова: по мере того как генеративный ИИ быстро развивается, нормативные рамки отстают. Будь то синтез видео, клонирование голоса или генерация текста — вопрос не только в том, что могут делать эти инструменты, а в том, готово ли общество к последствиям их масштабного использования.
Скандал с Sora может стать предварительным примером будущих конфликтов. Как сбалансировать технологический прогресс и общественную безопасность? И кто решит, когда инструмент становится слишком опасным для выпуска?