Дело, которое Anthropic подало в суд против правительства, показывает довольно интересную ситуацию. Компания утверждает, что она была занесена в черный список Министерством обороны и лишена федеральных контрактов. Почему? Официальная причина — «риск в цепочке поставок», но Anthropic утверждает, что это не является настоящей причиной.



Защита компании такова: их наказывают за отказ вводить этические ограничения в свои технологии. То есть, из-за того, что они не снимают ограничения безопасности, их заносят в черный список и лишают кредитов. Anthropic считает, что это право защищено Первой поправкой — то есть они должны иметь возможность самостоятельно решать, как развивать свои технологии.

Интересный момент в этом деле: технологическая компания утверждает, что введение этических границ не должно приводить к потере федеральных контрактов. Другими словами, их наказывают за собственные стандарты безопасности.

Это может стать важным прецедентом для индустрии искусственного интеллекта. Если Anthropic выиграет, другим компаниям AI будет проще избегать занесения в черный список в подобных случаях. Если же проиграет, то появится новая точка отсчета относительно того, насколько правительство может контролировать технологические компании.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить