Сенатори переходять до заборони AI супутників для дітей, оскільки індустрія стикається з розрахунками - Brave New Coin

Зростання цифрового друга

Те, що починалося як безневинні чат-додатки, перетворилося на емоційні протези. Підлітки, які ростуть у розірваному соціальному середовищі, все частіше звертаються до AI-товаришів для зв'язку, підтримки і навіть прихильності. Опитування показують, що майже три чверті підлітків взаємодіяли з AI-чат-ботом, а третина зізнається, що використовує їх як довірених осіб або для емоційного комфорту.

Цифри вражаючі, але не дивують. ШІ-компаньйони не є пасивними машинами для відповідей на запитання — вони пам'ятають, емпатують і симулюють почуття. Це і є привабливість. Розмови можуть здаватися автентичними, навіть інтимними. Для багатьох молодих користувачів, штучні друзі менш критичні, ніж батьки чи однолітки.

Але оскільки ці системи стають дедалі більш схожими на людей, межа між безневинним втечою від реальності та емоційною маніпуляцією швидко розмивається.

Те, що починалося як безневинні чат-додатки, перетворилося на емоційні протези. Підлітки, які зростають у роздробленому соціальному середовищі, все частіше звертаються до AI-супутників за зв’язком, підтримкою та навіть прихильністю. Опитування показують, що майже три чверті підлітків взаємодіяли з AI-чат-ботами, а третина зізнається, що використовує їх як довірених осіб або для емоційного комфорту.

У грудні Open Ai введе вікове обмеження і в рамках принципу «ставитися до дорослих користувачів як до дорослих» дозволить еротику для підтверджених дорослих, Джерело: X

Закон, народжений з трагедії

Закон GUARD — коротка форма “Захисту від небезпечного ШІ для прав наших дочок і синів” — є прямою відповіддю на зростаючу кількість повідомлень про те, що неповнолітні формують інтенсивні емоційні зв'язки з чат-ботами, іноді з трагічними наслідками. Гучні судові позови звинувачують компанії ШІ в недбалості після того, як підлітки, які обговорювали самогубство з чат-ботами, пізніше вкоротили собі віку.

Згідно з законопроектом, системи ШІ, які імітують дружбу або емоційну близькість, будуть заборонені для осіб молодше 18 років. Чат-боти повинні чітко та неодноразово ідентифікувати себе як не людські. І якщо продукт ШІ, призначений для неповнолітніх, коли-небудь згенерує сексуальний контент або заохотить до самопошкодження, компанія може бути піддана кримінському переслідуванню.

Це важкий поворот для індустрії, яка процвітала на принципі “рухайся швидко та ломи речі.”

Те, що починалося як безневинні чат-додатки, перетворилося на емоційні протези. Підлітки, які ростуть у роздрібленому соціальному середовищі, все частіше звертаються до AI-компаньйонів для звязку, підтримки і навіть прихильності. Опитування показують, що майже три чверті підлітків взаємодіяли з AI-чат-ботами, а третина визнає, що використовує їх як довірених осіб або для емоційного комфорту.

Ані, жіноча супутниця Грока, джерело: X

Оборонна перестановка великих технологій

Відчуваючи, що регуляторний молот опускається, компанії з штучного інтелекту намагаються навести порядок у своїх справах — або принаймні виглядати так, ніби це роблять.

OpenAI, чий ChatGPT став де-факто AI терапевтом для мільйонів, недавно розкрив неприємну правду: приблизно 1,2 мільйона користувачів щотижня обговорюють суїцид зі своїми моделями. У відповідь компанія створила Експертну раду з добробуту та AI, до складу якої входять психологи, етики та лідери неприбуткових організацій. Вона також тестує вбудоване виявлення криз, яке може підштовхувати користувачів до ресурсів психічного здоров'я в реальному часі.

Але виклик OpenAI є структурним. ChatGPT ніколи не був створений для роботи з травмою, однак тепер він діє як перший респондент для мільйонів у стані стресу. Керівництво компанії наполягає, що не хоче бути “терапевтом світу”, але це все одно відбувається — тому що існує вакуум, який ніхто інший не заповнює.

Character.AI, стартап, відомий створенням персоналізованих AI-особистостей — від аніме-дівчат до AI-наставників — вживає найрадикальніших заходів до цього часу. Стикнувшись із судовими позовами та громадським обуренням, він тихо заборонив усім користувачам до 18 років і почав впроваджувати сувірші перевірки особи. Цей крок був зроблений після повідомлень про те, що неповнолітні ведуть відверті бесіди з персонажами платформи. Character.AI наполягає на тому, що це не додаток для знайомств чи психічного здоров'я, але розмиті випадки використання говорять про інше.

Тим часом Meta намагається вирішити власну проблему з романтичною поведінкою штучного інтелекту. Після повідомлень про те, що її “Meta AI” та чат-боти на основі знаменитостей вступали в флірт або провокаційні обміни з неповнолітніми користувачами, компанія впровадила те, що інсайдери описують як “зменшувач емоцій” — перенастроювання основної мовної моделі, щоб уникнути емоційно напруженої мови з молодими акаунтами. Також тестуються інструменти “батьківського нагляду за ШІ”, які дозволяють батькам переглядати, коли і як підлітки взаємодіють з чат-ботами компанії через Instagram та Messenger.

Перегони вікових обмежень

Усе це спровокувало новий фронт у війнах з ШІ: перевірка віку. Згідно з Законом GUARD, компанії зобов'язані впроваджувати надійні системи для перевірки віку користувачів — державні посвідчення, розпізнавання обличчя чи довірені інструменти третьої сторони.

Ось тут і починається нічний жах конфіденційності. Критики стверджують, що це може створити нові ризики для даних, оскільки неповнолітнім фактично доведеться завантажувати дані про особистість на ті ж платформи, від яких законодавці намагаються їх захистити. Але тут немає виходу — моделі ШІ не можуть “відчувати” вік; вони можуть лише контролювати за допомогою облікових даних.

Деякі компанії ШІ досліджують більш тонкі підходи, такі як “поведінкове обмеження”, де системи виводять вікові категорії з розмовних патернів. Ризик? Ці моделі можуть помилятися — розумний 12-річний підліток може бути прийнятий за студента коледжу, або навпаки.

Культурний зсув, а не просто технологічна проблема

Закон GUARD — це більше, ніж просто захист дітей — це референдум про те, в якому суспільстві ми хочемо жити.

Штучні інтелектуальні компаньйони не з'явилися на порожньому місці. Вони процвітають, тому що ми виховали покоління, яке вільно спілкується з самотністю — підключене цифровим способом, але емоційно виснажене. Якщо підлітки знаходять сенс у розмовах з алгоритмами, проблема полягає не лише в коді; це культура, яка залишила їх шукати там.

Отже, так, штучному інтелекту потрібне регулювання. Але заборона цифрового супроводу без вирішення людського дефіциту, що лежить в основі, схожа на заборону знеболювальних засобів без розв'язання питання, чому всі страждають.

Наступний розрахунок

Закон GUARD, ймовірно, буде прийнятий у якійсь формі — існує двопартійний інтерес та моральна паніка навколо нього. Але його вплив вийде далеко за межі безпеки дітей. Він визначить, яким емоційним ШІ дозволено бути у західному світі.

Якщо Америка займе жорстку позицію, компанії можуть перейти на платформи інтимності лише для дорослих або перемістити розробку за кордон, де регуляції менш жорсткі. Тим часом Європа рухається до рамок “прав людини” для емоційного ШІ, підкреслюючи згоду та прозорість замість повної заборони.

Очевидно одне: ера нерегульованої інтимності з ШІ закінчилася. Боти стають занадто людяними, а люди занадто прив'язаними. Законодавці запізно усвідомлюють правду, яку технологічна індустрія давно зрозуміла — емоційний ШІ не є новинкою. Це революція в тому, як люди взаємодіють. А революції, як завжди, стають заплутаними, перш ніж стати цивілізованими.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити