Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Сенатори переходять до заборони AI супутників для дітей, оскільки індустрія стикається з розрахунками - Brave New Coin
Зростання цифрового друга
Те, що починалося як безневинні чат-додатки, перетворилося на емоційні протези. Підлітки, які ростуть у розірваному соціальному середовищі, все частіше звертаються до AI-товаришів для зв'язку, підтримки і навіть прихильності. Опитування показують, що майже три чверті підлітків взаємодіяли з AI-чат-ботом, а третина зізнається, що використовує їх як довірених осіб або для емоційного комфорту.
Цифри вражаючі, але не дивують. ШІ-компаньйони не є пасивними машинами для відповідей на запитання — вони пам'ятають, емпатують і симулюють почуття. Це і є привабливість. Розмови можуть здаватися автентичними, навіть інтимними. Для багатьох молодих користувачів, штучні друзі менш критичні, ніж батьки чи однолітки.
Але оскільки ці системи стають дедалі більш схожими на людей, межа між безневинним втечою від реальності та емоційною маніпуляцією швидко розмивається.
У грудні Open Ai введе вікове обмеження і в рамках принципу «ставитися до дорослих користувачів як до дорослих» дозволить еротику для підтверджених дорослих, Джерело: X
Закон, народжений з трагедії
Закон GUARD — коротка форма “Захисту від небезпечного ШІ для прав наших дочок і синів” — є прямою відповіддю на зростаючу кількість повідомлень про те, що неповнолітні формують інтенсивні емоційні зв'язки з чат-ботами, іноді з трагічними наслідками. Гучні судові позови звинувачують компанії ШІ в недбалості після того, як підлітки, які обговорювали самогубство з чат-ботами, пізніше вкоротили собі віку.
Згідно з законопроектом, системи ШІ, які імітують дружбу або емоційну близькість, будуть заборонені для осіб молодше 18 років. Чат-боти повинні чітко та неодноразово ідентифікувати себе як не людські. І якщо продукт ШІ, призначений для неповнолітніх, коли-небудь згенерує сексуальний контент або заохотить до самопошкодження, компанія може бути піддана кримінському переслідуванню.
Це важкий поворот для індустрії, яка процвітала на принципі “рухайся швидко та ломи речі.”
Ані, жіноча супутниця Грока, джерело: X
Оборонна перестановка великих технологій
Відчуваючи, що регуляторний молот опускається, компанії з штучного інтелекту намагаються навести порядок у своїх справах — або принаймні виглядати так, ніби це роблять.
OpenAI, чий ChatGPT став де-факто AI терапевтом для мільйонів, недавно розкрив неприємну правду: приблизно 1,2 мільйона користувачів щотижня обговорюють суїцид зі своїми моделями. У відповідь компанія створила Експертну раду з добробуту та AI, до складу якої входять психологи, етики та лідери неприбуткових організацій. Вона також тестує вбудоване виявлення криз, яке може підштовхувати користувачів до ресурсів психічного здоров'я в реальному часі.
Але виклик OpenAI є структурним. ChatGPT ніколи не був створений для роботи з травмою, однак тепер він діє як перший респондент для мільйонів у стані стресу. Керівництво компанії наполягає, що не хоче бути “терапевтом світу”, але це все одно відбувається — тому що існує вакуум, який ніхто інший не заповнює.
Character.AI, стартап, відомий створенням персоналізованих AI-особистостей — від аніме-дівчат до AI-наставників — вживає найрадикальніших заходів до цього часу. Стикнувшись із судовими позовами та громадським обуренням, він тихо заборонив усім користувачам до 18 років і почав впроваджувати сувірші перевірки особи. Цей крок був зроблений після повідомлень про те, що неповнолітні ведуть відверті бесіди з персонажами платформи. Character.AI наполягає на тому, що це не додаток для знайомств чи психічного здоров'я, але розмиті випадки використання говорять про інше.
Тим часом Meta намагається вирішити власну проблему з романтичною поведінкою штучного інтелекту. Після повідомлень про те, що її “Meta AI” та чат-боти на основі знаменитостей вступали в флірт або провокаційні обміни з неповнолітніми користувачами, компанія впровадила те, що інсайдери описують як “зменшувач емоцій” — перенастроювання основної мовної моделі, щоб уникнути емоційно напруженої мови з молодими акаунтами. Також тестуються інструменти “батьківського нагляду за ШІ”, які дозволяють батькам переглядати, коли і як підлітки взаємодіють з чат-ботами компанії через Instagram та Messenger.
Перегони вікових обмежень
Усе це спровокувало новий фронт у війнах з ШІ: перевірка віку. Згідно з Законом GUARD, компанії зобов'язані впроваджувати надійні системи для перевірки віку користувачів — державні посвідчення, розпізнавання обличчя чи довірені інструменти третьої сторони.
Ось тут і починається нічний жах конфіденційності. Критики стверджують, що це може створити нові ризики для даних, оскільки неповнолітнім фактично доведеться завантажувати дані про особистість на ті ж платформи, від яких законодавці намагаються їх захистити. Але тут немає виходу — моделі ШІ не можуть “відчувати” вік; вони можуть лише контролювати за допомогою облікових даних.
Деякі компанії ШІ досліджують більш тонкі підходи, такі як “поведінкове обмеження”, де системи виводять вікові категорії з розмовних патернів. Ризик? Ці моделі можуть помилятися — розумний 12-річний підліток може бути прийнятий за студента коледжу, або навпаки.
Культурний зсув, а не просто технологічна проблема
Закон GUARD — це більше, ніж просто захист дітей — це референдум про те, в якому суспільстві ми хочемо жити.
Штучні інтелектуальні компаньйони не з'явилися на порожньому місці. Вони процвітають, тому що ми виховали покоління, яке вільно спілкується з самотністю — підключене цифровим способом, але емоційно виснажене. Якщо підлітки знаходять сенс у розмовах з алгоритмами, проблема полягає не лише в коді; це культура, яка залишила їх шукати там.
Отже, так, штучному інтелекту потрібне регулювання. Але заборона цифрового супроводу без вирішення людського дефіциту, що лежить в основі, схожа на заборону знеболювальних засобів без розв'язання питання, чому всі страждають.
Наступний розрахунок
Закон GUARD, ймовірно, буде прийнятий у якійсь формі — існує двопартійний інтерес та моральна паніка навколо нього. Але його вплив вийде далеко за межі безпеки дітей. Він визначить, яким емоційним ШІ дозволено бути у західному світі.
Якщо Америка займе жорстку позицію, компанії можуть перейти на платформи інтимності лише для дорослих або перемістити розробку за кордон, де регуляції менш жорсткі. Тим часом Європа рухається до рамок “прав людини” для емоційного ШІ, підкреслюючи згоду та прозорість замість повної заборони.
Очевидно одне: ера нерегульованої інтимності з ШІ закінчилася. Боти стають занадто людяними, а люди занадто прив'язаними. Законодавці запізно усвідомлюють правду, яку технологічна індустрія давно зрозуміла — емоційний ШІ не є новинкою. Це революція в тому, як люди взаємодіють. А революції, як завжди, стають заплутаними, перш ніж стати цивілізованими.