Администрация Трампа проведет проверку моделей ИИ от Google, Microsoft и xAI перед публичным выпуском

закрыть

видео

Рынки начинают немного расходиться на фоне конфликта в Иране, говорит Джош Шафер

Редактор информационного бюллетеня Barrons Roundtable Джош Шафер разбирает ситуацию на фондовом рынке и цены на нефть на фоне конфликта на Ближнем Востоке в программе Varney & Co.

Администрация Трампа во вторник объявила, что достигла новых соглашений с Microsoft, Google DeepMind и xAI Илона Маска о расширении сотрудничества с крупными технологическими компаниями в области исследований искусственного интеллекта (ИИ) и безопасности.

Центр стандартов и инноваций в области ИИ (CAISI), который является частью Национального института стандартов и технологий Министерства торговли, будет работать с компаниями в области ИИ над предварительными оценками перед развертыванием, а также целевыми исследованиями в области передовых возможностей ИИ и безопасности ИИ.

Новые соглашения основываются на ранее объявленных партнерствах между CAISI и компаниями, поддерживая обмен информацией, стимулируя добровольные улучшения продуктов и обеспечивая ясное понимание в правительстве возможностей ИИ и состояния международной конкуренции в области ИИ.

“Независимая, строгая измерительная наука необходима для понимания передового ИИ и его национальных стратегических последствий,” сказал директор CAISI Крис Фолл. “Расширение сотрудничества с индустрией помогает нам масштабировать нашу работу в общественных интересах в критический момент.”

КАК ВОЗДЕЙСТВИЕ ИИ ПРЕОБРАЗУЕТ РАБОЧИЕ МЕСТА В ТВОРЧЕСКИХ ОБЛАСТЯХ

Администрация Трампа объявила о соглашениях по ИИ через CAISI с несколькими ведущими технологическими компаниями. (Уин МакНэми / Getty Images)

Разработчики часто предоставляют CAISI модели, в которых снижены или удалены меры безопасности для оценки возможностей и рисков, связанных с национальной безопасностью.

Оценщики из различных государственных агентств могут участвовать в оценках и регулярно предоставлять обратную связь через рабочую группу TRAINS, которая состоит из межведомственных экспертов, сосредоточенных на вопросах национальной безопасности ИИ.

Соглашения CAISI поддерживают тестирование в засекреченных условиях и были разработаны с учетом гибкости для реагирования на продолжающееся развитие ИИ.

ЗУКЕРБЕРГ ГОВОРИТ, ЧТО УВОЛЬНЕНИЯ В META СВЯЗАНЫ С РАХУНКОМ НА ИИ, НЕ ИСКЛЮЧАЕТСЯ БУДУЩИЕ СОКРАЩЕНИЯ

Microsoft заявила, что партнерство с CAISI необходимо для укрепления доверия и уверенности в передовых системах ИИ. (Ческ Маймо / Getty Images)

Руководитель по ответственному ИИ Microsoft Наташа Крамптон в пресс-релизе отметила, что соглашения “будут способствовать развитию науки тестирования и оценки ИИ, включая совместную работу по тестированию передовых моделей Microsoft, оценке мер безопасности и помощи в снижении рисков национальной безопасности и масштабной общественной безопасности.”

Крамптон подчеркнула, что “постоянное, строгие тестирование необходимо для формирования доверия и уверенности в передовых системах ИИ.”

ЭЛОН МАСК ГОВОРИТ, ЧТО ОН БЫЛ «ДУРОМ», ФИНАНСИРУЯ OPENAI: ОТЧЕТ

Google DeepMind также подписала новые соглашения с CAISI. (Мармелена Слосс / Bloomberg через Getty Images)

“Хорошо построенные тесты помогают понять, работают ли наши системы так, как задумано, и приносят ли они ожидаемые преимущества. Тестирование также помогает нам опережать риски, такие как кибератаки, управляемые ИИ, и другие преступные злоупотребления системами ИИ, которые могут возникнуть после развертывания передовых систем ИИ в мире,” объяснила Крамптон.

Microsoft также объявила о подобном соглашении с Институтом безопасности ИИ Великобритании (AISI) для регулирования тестирования и оценки ИИ.

ПОЛУЧИТЕ FOX BUSINESS В ЛЮБОМ МЕСТЕ, НАЖМИВ ЗДЕСЬ

XAI3,35%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить