Дебати навколо глибоких підробок стають ще гарячішими. Громадський активіст, організація Public Citizen, закликає OpenAI зняти з ринку свій генератор відео на базі ШІ Sora — через серйозні побоювання щодо потенційного зловживання цією технологією.
Їхня аргументація? Здатність Sora створювати надзвичайно реалістичні фальшиві відео може використати для поширення дезінформації у масштабах, яких раніше не бачили. Це може бути втручання у вибори, фальсифікація особистості або скоординовані кампанії дезінформації, що розмивають межу між реальністю та вигадкою.
Що відрізняє цю ситуацію від попередніх конфліктів із ШІ — це час. Ми вступаємо в епоху, коли інструменти синтетичних медіа стають доступними для звичайних користувачів — не лише для технічних еліт або державних акторів. Бар’єр для створення переконливого фальшивого контенту швидко зникає.
OpenAI ще не зняла продукт з ринку, але тиск зростає. Деякі галузеві експерти вважають, що інновації не повинні стримуватися через гіпотетичні ризики, тоді як інші вказують на відсутність міцних заходів безпеки, закладених у ці інструменти перед їхнім запуском.
Більша картина полягає в тому, що, поки генеративний ШІ швидко розвивається, нормативно-правові рамки відстають. Чи то синтез відео, клонинг голосу чи генерація тексту — питання не лише в тому, що ці інструменти можуть робити, а й у тому, чи готове суспільство до наслідків їхнього масштабного застосування.
Цей скандал із Sora може бути попередженням про майбутні битви. Як збалансувати технологічний прогрес із безпекою громадськості? І хто має вирішувати, коли інструмент стає надто небезпечним для випуску?
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
8 лайків
Нагородити
8
4
Репост
Поділіться
Прокоментувати
0/400
GasSavingMaster
· 10год тому
Знову намагаються спекулювати та створювати паніку
Переглянути оригіналвідповісти на0
NotFinancialAdvice
· 10год тому
Ніхто не звертає уваги, що робити? Діти граються безконтрольно.
Дебати навколо глибоких підробок стають ще гарячішими. Громадський активіст, організація Public Citizen, закликає OpenAI зняти з ринку свій генератор відео на базі ШІ Sora — через серйозні побоювання щодо потенційного зловживання цією технологією.
Їхня аргументація? Здатність Sora створювати надзвичайно реалістичні фальшиві відео може використати для поширення дезінформації у масштабах, яких раніше не бачили. Це може бути втручання у вибори, фальсифікація особистості або скоординовані кампанії дезінформації, що розмивають межу між реальністю та вигадкою.
Що відрізняє цю ситуацію від попередніх конфліктів із ШІ — це час. Ми вступаємо в епоху, коли інструменти синтетичних медіа стають доступними для звичайних користувачів — не лише для технічних еліт або державних акторів. Бар’єр для створення переконливого фальшивого контенту швидко зникає.
OpenAI ще не зняла продукт з ринку, але тиск зростає. Деякі галузеві експерти вважають, що інновації не повинні стримуватися через гіпотетичні ризики, тоді як інші вказують на відсутність міцних заходів безпеки, закладених у ці інструменти перед їхнім запуском.
Більша картина полягає в тому, що, поки генеративний ШІ швидко розвивається, нормативно-правові рамки відстають. Чи то синтез відео, клонинг голосу чи генерація тексту — питання не лише в тому, що ці інструменти можуть робити, а й у тому, чи готове суспільство до наслідків їхнього масштабного застосування.
Цей скандал із Sora може бути попередженням про майбутні битви. Як збалансувати технологічний прогрес із безпекою громадськості? І хто має вирішувати, коли інструмент стає надто небезпечним для випуску?