OpenAI запускає пілотний проект для безпекових дослідників, підтримуючи незалежні дослідження безпеки та узгодженості штучного інтелекту

ME Новини повідомляють, 7 квітня (UTC+8), що OpenAI нещодавно оголосила про запуск пілотного проекту “Безпековий дослідник”, спрямованого на підтримку незалежних досліджень у галузі безпеки та узгодженості, а також на виховання наступного покоління фахівців. Цей проект орієнтований на зовнішніх дослідників, інженерів і практиків, заохочуючи їх проводити ретельні та високовпливові дослідження з питань безпеки та узгодженості передових систем штучного інтелекту. Термін проекту — з 14 вересня 2026 року по 5 лютого 2027 року. Кандидати повинні зосередитися на критично важливих питаннях безпеки існуючих та майбутніх систем, пріоритетними сферами досліджень є оцінка безпеки, етика, стійкість, масштабовані заходи пом’якшення, безпечні методи захисту приватності, нагляд за агентами та сфери високої ймовірності зловживань. Дослідники тісно співпрацюватимуть із наставниками OpenAI, робоче місце може бути у Констелляції в Берклі або віддалено. Наприкінці проекту потрібно представити суттєві результати досліджень, такі як публікації, бенчмарки або набори даних. Проект забезпечує щомісячну стипендію, підтримку обчислювальних ресурсів і постійне наставництво. Заявки вже відкриті, кінцевий термін — 3 травня, результати відбору будуть повідомлені до 25 липня. (Джерело: InFoQ)

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити