Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
OpenAI впроваджує нові функції безпеки ChatGPT у зв'язку з зростанням кількості судових позовів
Коротко
OpenAI у четвер оголосила про нові функції безпеки, спрямовані на допомогу ChatGPT у розпізнаванні ознак зростаючого ризику в розмовах, оскільки компанія стикається з посиленням юридичних та політичних перевірок щодо того, як її чатбот обробля користувачів у стресових ситуаціях. У блозі OpenAI повідомила, що оновлення покращують здатність ChatGPT ідентифікувати попереджувальні ознаки, пов’язані з самогубством, самопошкодженням і потенційним насильством, аналізуючи контекст, що розвивається з часом, а не обробляючи кожне повідомлення окремо. “Люди щодня звертаються до ChatGPT, щоб поговорити про те, що для них важливо — від повсякденних питань до більш особистих або складних розмов,” — написала компанія. “У сотнях мільйонів взаємодій деякі з цих розмов включають людей, які борються або переживають стрес.”
Згідно з OpenAI, ChatGPT тепер використовує тимчасові “зведення безпеки”, які описуються як вузькоспеціальні нотатки, що фіксують релевантний контекст безпеки з попередніх розмов. “У чутливих розмовах контекст може бути так само важливий, як і одне повідомлення,” — написала компанія. “Запит, який здається звичайним або двозначним сам по собі, може мати зовсім інше значення, якщо його розглядати разом із попередніми ознаками стресу або потенційно шкідливого наміру.” OpenAI повідомила, що зведення є короткостроковими нотатками, які використовуються лише у серйозних ситуаціях, а не для постійного запам’ятовування користувачів або персоналізації чатів, і їх застосовують для виявлення ознак, що розмова стає небезпечною, уникнення поширення шкідливої інформації, деескалації ситуації або спрямування користувачів до допомоги.
“Ми зосередили цю роботу на гострих сценаріях, включаючи самогубство, самопошкодження та шкоду іншим,” — написали вони. “Співпрацюючи з фахівцями з психічного здоров’я, ми оновили наші політики моделі та навчання, щоб покращити здатність ChatGPT розпізнавати попереджувальні ознаки, що з’являються протягом розмови, і використовувати цей контекст для більш обережних відповідей.” Оголошення з’являється на тлі кількох судових позовів та розслідувань, які стверджують, що ChatGPT не належним чином реагував на небезпечні розмови, що включають насильство, емоційну вразливість і ризиковану поведінку. У квітні генеральний прокурор Флориди Джеймс Утмеєр розпочав розслідування щодо OpenAI через побоювання щодо безпеки дітей, самопошкодження та масової стрільби 2025 року у Флоридському державному університеті. OpenAI також стикається з федеральним позовом, у якому стверджується, що ChatGPT допоміг підозрюваному у стрільбі здійснити напад. У вівторок OpenAI і генеральний директор Сэм Альтман були позвані до суду штату Каліфорнія родиною 19-річного студента, який помер від випадкової передозування, з позовом, що стверджує, що ChatGPT заохочував небезпечне вживання наркотиків і радив змішувати речовини. OpenAI заявила, що допомога ChatGPT у розпізнаванні “ризику, який стає очевидним лише з часом,” залишається постійним викликом; подібні методи безпеки з часом можуть розширитися і на інші сфери. “Сьогодні ця робота зосереджена на сценаріях самопошкодження та шкоди іншим. У майбутньому ми можемо досліджувати, чи допоможуть подібні методи в інших високоризикових сферах, таких як біологія або кібербезпека, за умови дотримання обережних заходів,” — написали вони. “Це залишається пріоритетом, і ми продовжимо посилювати заходи безпеки у міру розвитку наших моделей і розуміння.”