Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Я щойно дізнався про щось, що звучить так, ніби з 1984, але сталося зовсім недавно у школі Великої Британії. Буквально, штучний інтелект цензурував Орвела.
У Манчестері одна середня школа вирішила використати штучний інтелект для перевірки своєї бібліотеки. ШІ надав список із 193 книг для вилучення, з поясненнями для кожної. І вгадайте, яка була у списку: 1984 Джорджа Орвелла, бо містила "теми тортур, насильства та сексуального примусу". Іронія в тому, що 1984 саме про уряд, який контролює все, переписує історію і вирішує, що можуть читати громадяни. А тут штучний інтелект робив те саме.
Бібліотекар школи вважав це абсурдом і відмовився впроваджувати рекомендації. Але адміністрація не погодилася. Його звинуватили у внесенні неприйнятних книг і подали до місцевих органів влади. Стрес був настільки сильним, що він взяв лікарняний і зрештою подав у відставку. І найгірше: влада дійшла висновку, що він справді порушив процедури безпеки дітей. Той, хто опирався ШІ, втратив роботу. Той, хто прийняв її без запитань — без наслідків.
Пізніше з’ясувалося, що школа прекрасно знала, що все це від ШІ. У внутрішніх документах писали, що хоча категорії були згенеровані ШІ, "вважаємо, що ця класифікація приблизно точна". Приблизно. Установа делегувала важливе рішення алгоритму, який сама не розуміла, і адміністратор схвалив його без перевірки.
Того ж тижня сталося щось зовсім інше у Вікіпедії. Поки школа дозволяла ШІ вирішувати, що читати її учням, найбільша онлайн-енциклопедія світу ухвалила протилежне рішення: заборонити ШІ писати або переписувати контент. Голосування — 44 за, 2 проти. Причина — акаунт ШІ під назвою TomWikiAssist автоматично створював статті.
Математична проблема: ШІ може написати статтю за секунди, але волонтер-людина витрачає години на перевірку фактів, джерел і редагування. Вікіпедія не має достатньо редакторів, щоб перевірити все, що може створити ШІ. Але є глибша причина: Вікіпедія — один із головних джерел даних для тренування моделей ШІ. ШІ навчається на Вікіпедії, потім пише нові статті для Вікіпедії, які знову тренують наступне покоління ШІ. Якщо ШІ забруднює ці дані, виникає цикл, де забруднення посилюється. Дані отруюють ШІ, а ШІ отруює дані.
Того ж тижня OpenAI також відступила. Відмінила безстроковий "режим для дорослих" ChatGPT, функцію, яку Сам Альтман оголосив ще місяць тому. Внутрішній комітет одноголосно проголосував проти. Їхні побоювання були зрозумілі: користувачі можуть сформувати нездорову емоційну прив’язаність до ШІ, а неповнолітні знайдуть способи обійти вікову перевірку. Хтось був більш прямим: без покращень це може перетворитися на "сексуального тренера для суїциду". Система вікової перевірки має понад 10% помилок. За 800 мільйонів активних користувачів щотижня — це десятки мільйонів неправильно класифікованих.
Не тільки це. Також зняли Sora, інструмент відео з ШІ, і функцію миттєвих платежів ChatGPT. Альтман сказав, що зосереджуються на основному бізнесі і видаляють "додаткові завдання". Але OpenAI готується до виходу на біржу. Компанія, яка прагне котируватися і одночасно видаляє суперечливі функції, навряд чи цілком чесна з собою.
Подивіться, п’ять місяців тому Альтман казав, що потрібно ставитися до користувачів як до дорослих. П’ять місяців потому він зрозумів, що навіть його власна компанія не знає, що може і що не може робити ШІ. Навіть творці ШІ не мають цієї відповіді.
Розглядаючи ці три події разом, стає очевидним: швидкість, з якою ШІ генерує контент, вже не співвідноситься з швидкістю його перевірки людьми. Той директор у Манчестері не довіряв ШІ; він просто не хотів витрачати час, який пішов би на читання 193 книг бібліотекарем. Це економічна проблема. Вартість генерації майже нульова. Всі витрати на перевірку несе людина.
Тому кожна установа реагувала найжорсткіше: Вікіпедія заборонила прямо, OpenAI видалила ряд продуктів. Жодна з них не була обдуманою; це були екстрені заходи для закриття дірок. І це стає нормою.
ШІ оновлюється кожні кілька місяців. Не існує єдиного міжнародного рамкового підходу щодо того, що можна торкатися. Кожна установа встановлює свої внутрішні межі, і вони суперечать одна одній, без координації. Тим часом, розрив лише зростає. ШІ продовжує прискорюватися. Кількість людей, що перевіряють, не зростає. Колись це вибухне у щось набагато гірше за цензуру Орвела. І коли це станеться, ймовірно, буде вже занадто пізно, щоб провести межу.