Трамповское правительство призвали провести проверку безопасности перед выпуском модели ИИ

robot
Генерация тезисов в процессе

Investing.com – одна из организаций, выступающих за ответственность, в понедельник призвала правительство Трампа провести оценку безопасности перед публичным выпуском передовых моделей искусственного интеллекта и отказать в предоставлении государственных контрактов моделям, не прошедшим проверку.

Белый дом в настоящее время реагирует на потенциальные угрозы безопасности, вызванные моделью Mythos компании Anthropic, которая может ускорить и упростить выполнение сложных сетевых атак, что создает риски для национальной безопасности.

Организация “Ответственные инновации американцев” (Americans for Responsible Innovation) направила письмо правительственным чиновникам, призывая администрацию Трампа создать механизм для проверки возможностей кибератак и разработки оружия в передовых моделях, которые скоро будут выпущены крупными разработчиками.

В письме организация заявила, что компании должны пройти указанную проверку, чтобы получить право на государственные контракты.

Центр стандартов и инноваций в области искусственного интеллекта США (CAISI) в настоящее время проводит проверку некоторых моделей ИИ на основе добровольных соглашений с OpenAI, Anthropic, Google, Microsoft и xAI.

Организация предлагает, чтобы CAISI руководил разработкой обязательных требований, а Конгресс создал постоянное правоохранительное агентство внутри Министерства торговли США, ответственное за выполнение этих требований.

MSFT-1.34% GOOGL+0.71%

Microsoft

Внимание

Анализ MSFT

Включено в нашу стратегию выбора лучших моделей искусственного интеллекта

·

Просмотреть детали стратегии

415.12

▼-5.65(-1.34%)

Закрытие·09/05·USD

412.75

▼-2.37(-0.57%)

Перед открытием·10:51:55

1 день

1 неделя

1 месяц

6 месяцев

1 год

5 лет

Максимум

Создано с помощью Highcharts 11.4.814:0015:0016:0017:0018:0019:00414416418

Содержание

MSFT-1.34% GOOGL+0.71%

Анализ MSFT

Предложенные требования будут применяться к компаниям, инвестирующим не менее 100 миллионов долларов в год в передовые модели на базе вычислительных мощностей или с годовыми доходами от продуктов и услуг ИИ не менее 500 миллионов долларов.

Калифорния в прошлом году установила аналогичные пороговые стандарты для требований по отчетности о безопасности.

Эта статья переведена с помощью искусственного интеллекта. Для получения дополнительной информации смотрите наши условия использования.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить