Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
OpenAI внедряет новые функции безопасности ChatGPT по мере роста количества судебных исков
Вкратце
OpenAI в четверг объявила о новых функциях безопасности, предназначенных помочь ChatGPT распознавать признаки увеличивающегося риска в разговорах, поскольку компания сталкивается с растущим юридическим и политическим давлением по поводу того, как ее чат-бот обрабатывает пользователей в состоянии стресса. В блоге OpenAI сообщила, что обновления улучшают способность ChatGPT выявлять предупреждающие признаки, связанные с суицидом, самоповреждением и возможным насилием, анализируя контекст, развивающийся со временем, а не рассматривая каждое сообщение отдельно. «Люди приходят к ChatGPT каждый день, чтобы обсудить важные для них темы — от повседневных вопросов до более личных или сложных разговоров», — написала компания. «В сотнях миллионов взаимодействий некоторые из этих разговоров включают людей, испытывающих трудности или стресс.»
По словам OpenAI, ChatGPT теперь использует временные «сводки по безопасности», которые, как описано, являются узконаправленными заметками, фиксирующими релевантный контекст, связанный с безопасностью, из предыдущих разговоров. «В деликатных разговорах контекст может иметь такое же значение, как и отдельное сообщение», — написала компания. «Запрос, который кажется обычным или неоднозначным сам по себе, может иметь совершенно иной смысл, если его рассматривать вместе с ранними признаками стресса или возможного вредоносного намерения.» OpenAI заявила, что сводки — это краткосрочные заметки, используемые только в серьезных ситуациях, а не для постоянного запоминания пользователей или персонализации чатов, и они предназначены для выявления признаков того, что разговор становится опасным, избегания распространения вредной информации, деэскалации ситуации или направления пользователей к помощи.
«Мы сосредоточили эту работу на острых сценариях, включая суицид, самоповреждение и вред другим», — написали они. «Работая с экспертами по психическому здоровью, мы обновили наши политики и обучение модели, чтобы улучшить способность ChatGPT распознавать предупреждающие признаки, возникающие в ходе разговора, и использовать этот контекст для более осторожных ответов.» Объявление выходит на фоне нескольких судебных исков и расследований, в которых утверждается, что ChatGPT неправильно реагировал на опасные разговоры, связанные с насилием, эмоциональной уязвимостью и рискованным поведением. В апреле генеральный прокурор Флориды Джеймс Утхмайер начал расследование в отношении OpenAI, связанное с опасениями по поводу безопасности детей, самоповреждения и массовой стрельбы 2025 года в Университете штата Флорида. Также OpenAI сталкивается с федеральным иском, в котором утверждается, что ChatGPT помог подозреваемому в вооруженном нападении осуществить атаку. Во вторник OpenAI и генеральный директор Сэм Альтман были обвинены в суде штата Калифорния семьей 19-летнего студента, умершего от случайной передозировки, с обвинением, что ChatGPT поощрял опасное употребление наркотиков и советовал о смешивании веществ. OpenAI заявил, что помощь ChatGPT в распознавании «рисков, которые становятся ясными только со временем», остается постоянной задачей; аналогичные методы безопасности могут в будущем расшириться и на другие области. «Сегодня эта работа сосредоточена на сценариях самоповреждения и вреда другим. В будущем мы можем изучить, могут ли подобные методы помочь в других высокорискованных сферах, таких как биология или кибербезопасность, при условии наличия тщательных мер предосторожности», — написали они. «Это остается приоритетом, и мы продолжим укреплять меры безопасности по мере развития наших моделей и понимания.»