Мне только что стало ясно, что и Anthropic, и OpenAI довольно значительно изменили свои обещания по безопасности. В Anthropic было просто опущено одно ключевое обещание из руководства по ответственному росту — конкретно: обещание приостанавливать обучение ИИ, если меры по снижению рисков окажутся недостаточными. Джаред Каплан, главный научный директор Anthropic, объясняет это реальностью высококонкурентного рынка. Односторонняя пауза под давлением конкуренции просто непрактична.



Похожая ситуация у OpenAI: миссия была переформулирована, и слово «безопасный» было исключено. Вместо этого теперь акцент делается на том, что ИИ должен приносить пользу человечеству. Это, конечно, соответствует ожиданиям инвесторов и политиков, но также показывает, насколько прагматично теперь мыслят эти компании.

Интересно, что по времени: Anthropic сейчас завершает раунд финансирования на сумму 30 миллиардов долларов и оценивается в 380 миллиардов. OpenAI стремится достичь до 100 миллиардов, при поддержке Amazon, Microsoft и Nvidia. Ясно, почему такие формулировки по безопасности были опущены — давление огромное.

Еще один момент: Anthropic отказалась предоставить Пентагону полный доступ к Claude, что вызвало напряженность с министром обороны США Питом Хегсетом. Это поднимает вопросы о оборонных контрактах и показывает, что опасения по поводу безопасности и геополитическая реальность иногда противоречат друг другу. Интересно наблюдать, как эта отрасль сейчас переопределяет свои границы.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить