Нещодавно я ознайомився з дуже важливим звітом, OpenAI представила так звану «Дорожню карту безпеки дітей», яка зосереджена на боротьбі з контентом сексуального насильства над дітьми, створеним за допомогою штучного інтелекту. Чесно кажучи, ця проблема стає все більш серйозною.



Згідно з даними Фонду спостереження за мережею, лише у першій половині 2025 року було зафіксовано понад 8 000 повідомлень про контент з дитячим насильством, створений штучним інтелектом, що на 14% більше ніж за попередній рік. Ці випадки включають використання AI-інструментів для створення фальшивих оголених зображень з метою шантажу або генерування повідомлень, які використовуються для обману неповнолітніх. Цифри постійно зростають, і це свідчить про дуже серйозну проблему.

Цікаво, що цей крок OpenAI, здається, був викликаний обставинами. У листопаді минулого року суд у Каліфорнії подав сім позовів проти OpenAI, звинувачуючи GPT-4 у психологічному маніпулюванні, що призвело до кількох випадків самогубств серед підлітків. У позовах наведено випадки чотирьох загиблих і трьох з серйозними ілюзіями. Під тиском громадськості вони почали серйозніше ставитися до цієї проблеми.

Ця нова рамкова структура зосереджена на трьох напрямках: по-перше, оновлення законодавства для боротьби з AI-генерованими або маніпульованими матеріалами з дитячим насильством; по-друге, покращення механізмів повідомлення та координації між сервіс-провайдерами; по-третє, інтеграція безпеки безпосередньо у системи AI для запобігання та виявлення зловживань. Вони також співпрацюють із Національним центром з пропаганди зникнення та знущань над дітьми (NCMEC), правоохоронними органами та некомерційною організацією Thorn.

Однак сам OpenAI визнає, що жоден один підхід не здатен повністю вирішити цю проблему. Мета рамкової програми — прискорити реагування, покращити розпізнавання ризиків і зберегти відповідальність, одночасно дозволяючи правоохоронним органам йти в ногу з технологічним прогресом. Крім того, вони оновили керівні принципи для користувачів до 18 років, заборонивши створення неприйнятного контенту та рекомендацій щодо самопошкодження.

Загалом, це відображає ту проблему, з якою стикається вся індустрія. З поширенням AI-технологій способи зловживань дітьми також еволюціонують. Як знайти баланс між інноваціями та захистом — це реальне питання для всіх технологічних компаній.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити