特朗普政府将审查谷歌、微软、xAI的人工智能模型,提前面向公众发布

关闭

视频

市场在伊朗冲突中刚开始略微分化,乔什·沙弗说

巴伦圆桌会议通讯编辑乔什·沙弗在《瓦尼与公司》节目中分析了中东冲突期间的股市和油价。

特朗普政府在星期二宣布已与微软、谷歌DeepMind和埃隆·马斯克的xAI达成新协议,以扩大与大型科技公司在人工智能(AI)和安全研究方面的合作。

人工智能标准与创新中心(CAISI),作为商务部国家标准与技术研究院的一部分,将与这些AI公司合作进行部署前评估以及针对前沿AI能力和AI安全的专项研究。

这些新协议是在之前宣布的CAISI与这些公司的合作基础上建立的,支持信息共享,推动自愿产品改进,并确保政府对AI能力和国际AI竞争状态有清晰的了解。

“独立、严格的测量科学对于理解前沿AI及其国家安全影响至关重要,”CAISI主任克里斯·福尔表示。“这些扩展的行业合作帮助我们在关键时刻以公共利益为导向扩大我们的工作。”

AI暴露如何重塑创意领域的工作岗位

特朗普政府通过CAISI与几家领先科技公司宣布了这些AI协议。(Win McNamee/Getty Images)

开发者经常向CAISI提供已减少或移除安全措施的模型,以评估与国家安全相关的能力和风险。

来自各政府机构的评估人员可能会参与评估,并通过TRAINS特别工作组定期提供反馈,该工作组由关注AI国家安全问题的跨机构专家组成。

CAISI的协议支持在机密环境中进行测试,并在起草时考虑了应对AI持续进步的灵活性。

扎克伯格表示Meta裁员与AI支出有关,不排除未来裁员

微软表示,CAISI合作关系有助于建立对先进AI系统的信任和信心。(Cesc Maymo / Getty Images)

微软负责AI的首席官娜塔莎·克拉姆普顿在一份声明中表示,这些协议将“推动AI测试与评估的科学发展,包括通过合作测试微软的前沿模型、评估安全措施,以及帮助减轻国家安全和大规模公共安全风险。”

克拉姆普顿表示,“持续、严格的测试对于建立对先进AI系统的信任和信心至关重要。”

埃隆·马斯克称他为资助OpenAI的“傻瓜”:报道

谷歌DeepMind部门也与CAISI签署了新协议。(Marlena Sloss/Bloomberg via Getty Images)

“结构合理的测试帮助我们了解我们的系统是否按预期工作,并提供其设计的益处。测试还帮助我们提前应对风险,比如AI驱动的网络攻击和其他在部署先进AI系统后可能出现的犯罪滥用,”克拉姆普顿解释说。

微软还宣布与英国AI安全研究所(AISI)达成类似协议,以管理AI测试与评估。

点击这里获取福克斯商业频道的内容

XAI2.18%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论