OpenAI запускает пилотный проект для исследователей по безопасности, поддерживая независимые исследования в области безопасности и согласованности ИИ

МЕ Новости, 7 апреля (UTC+8), OpenAI недавно объявила о запуске пилотного проекта “Безопасный исследователь”, направленного на поддержку независимых исследований в области безопасности и согласованности, а также на развитие следующего поколения специалистов. Этот проект ориентирован на внешних исследователей, инженеров и практиков, поощряя их проводить строгие и высокоэффективные исследования по вопросам безопасности и согласованности передовых систем ИИ. Срок проекта — с 14 сентября 2026 года по 5 февраля 2027 года. Заявители должны сосредоточиться на критически важных для существующих и будущих систем вопросах безопасности, приоритетными областями исследований являются оценка безопасности, этика, устойчивость, масштабируемые меры смягчения, безопасные методы защиты конфиденциальности, контроль над агентами и области высокого риска злоупотреблений. Исследователи будут тесно сотрудничать с наставниками OpenAI, рабочее место может находиться в Констелляции в Беркли или удаленно. В конце проекта необходимо представить существенные результаты исследований, такие как статьи, бенчмарки или датасеты. Проект предоставляет ежемесячные стипендии, поддержку вычислительных ресурсов и постоянное руководство. Заявки уже открыты, крайний срок — 3 мая, результаты отбора будут сообщены до 25 июля. (Источник: InFoQ)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить