Высокопоставленный чиновник Белого дома заявил, что необходимо «рассматривать ИИ так же тщательно, как лекарства», на следующий день Белый дом заявил, что его слова были вырваны из контекста.

По данным мониторинга Beating, 4 мая «Нью-Йорк Таймс» сообщила, что Белый дом обсуждает создание механизма предварительной проверки выпуска моделей ИИ, на тот момент это было на стадии «рассмотрения». Через два дня ситуация обострилась: директор Национального экономического совета Белого дома Кевин Хассетт в среду прямо заявил в Fox Business, что правительство изучает исполнительный указ, требующий прохождения правительственной проверки перед запуском моделей ИИ, «как FDA одобряет лекарства». Первым делом при вступлении в должность Трамп отменил исполнительный указ Байдена по безопасности ИИ, а теперь сам собирается ввести более строгую предварительную проверку, чем у Байдена. Менее чем за 24 часа Белый дом резко охладил ситуацию. В четверг высокопоставленный чиновник заявил, что слова Хассета были «вырваны из контекста», и что Белый дом ищет «партнерские отношения» с компаниями, а не «государственный надзор». В среду поздно вечером помощник президента по связям с общественностью Сюзи Вайлс опубликовала пост в X, чтобы уладить ситуацию, заявив, что правительство «не выбирает победителей и проигравших», а безопасность должна обеспечиваться инновациями, а не бюрократами. Это четвертый пост, который она разместила с момента создания официального аккаунта. Хотя риторика стала мягче, реальные действия не прекращались. Трое информированных источников сообщили «Politico», что Белый дом обсуждает возможность предварительной оценки моделей разведывательными агентствами перед их публичным выпуском, одна из целей — обеспечить, чтобы американские разведслужбы могли изучать и использовать эти инструменты до того, как Россия и Китай узнают о новых возможностях. Заместитель министра обороны Эмиль Майкл в четверг на конференции по ИИ в Вашингтоне также публично поддержал предварительную оценку, заявив, что Mythos по сути является вопросом кибербезопасности, «эти модели рано или поздно появятся», и правительство должно подготовить механизмы реагирования. Центр стандартов и инноваций в области ИИ (CAISI), подчиненный Министерству торговли, уже в 2024 году подписал добровольные соглашения об оценке с OpenAI и Anthropic, а на этой неделе расширил их на Google DeepMind, Microsoft и xAI. Причиной этого резкого поворота политики стал недавний инцидент с Anthropic, который в прошлом месяце раскрыл, что Mythos обладает настолько мощными возможностями обнаружения уязвимостей, что его невозможно было публично выпускать. Но ситуация в Белом доме сложная: с одной стороны, Трамп подписал исполнительный указ, запрещающий федеральным агентствам использовать продукты Anthropic и назвал их руководителей «левыми безумцами», с другой — многие федеральные ведомства требуют доступа к Mythos для проверки своих систем. В отрасли существует значительная реакция против обязательной предварительной проверки. Председатель Фонда информационных технологий и инноваций Дэниел Кастро заявил: «Если одобрение может быть задержано или заблокировано, это создаст большие проблемы для любой компании. Если одна компания получит одобрение, а другая — нет, разрыв в доступе к рынку за несколько недель или месяцев будет иметь огромное значение».

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить