OpenAI确认与AI恶意软件活动相关的安全漏洞

简要概述

  • OpenAI 表示,与 Shai-Hulud 运动相关的恶意软件感染了两名员工的设备,并让攻击者访问了少量内部代码存储系统。
  • 公司表示未发现客户数据、核心系统或公司技术受到影响的证据。
  • 此披露紧随之前涉及微软和 Mistral AI 的报告,这些都与同一更广泛的恶意软件运动有关。

OpenAI 本周确认,关联 Shai-Hulud 恶意软件运动的黑客通过被破坏的开源软件包入侵了其内部开发环境的部分区域。此事件紧随 Mistral AI 的类似披露,显示黑客日益针对用于构建 AI 模型和应用的软件工具。 在周三的一篇博客中,OpenAI 表示黑客入侵了 TanStack npm,这是开发者用来下载和管理编码包的软件工具。公司表示,恶意软件感染了两名员工的设备,并在 OpenAI 阻止活动之前,给予攻击者访问少量内部代码存储系统的权限。 “我们观察到的活动与已公开描述的恶意软件行为一致,包括未授权访问和凭证相关的窃取活动,发生在两名受影响员工有权限访问的有限内部源代码仓库中,”OpenAI 写道。

公司表示未发现客户数据、生产系统或知识产权被泄露的证据。  OpenAI 表示受影响的仓库包括用于 macOS、Windows 和 iOS 产品的代码签名证书。这些证书帮助操作系统验证软件是否来自可信公司且未被篡改。 “因此,我们正在轮换代码签名证书作为预防措施,这将要求 macOS 用户更新他们的应用程序,”公司表示。“Windows 和 iOS 应用程序的用户无需采取任何行动。关于这些必要更新的额外指导将提供给 macOS 用户。”

OpenAI 表示,macOS 用户必须在6月12日之前更新 OpenAI 应用程序。使用旧证书签名的旧版本可能在此日期之后停止工作。 OpenAI 未立即回应 Decrypt 的置评请求。 此披露紧随本周早些时候涉及微软和法国 AI 初创公司 Mistral AI 的报告,这些都与同一更广泛的恶意软件运动有关。 周一,微软威胁情报部门表示,攻击者在通过 PyPI 分发的 Mistral AI 软件包中插入了恶意代码,PyPI 是开发者用来下载 Python 软件工具的平台。据微软称,恶意软件下载了另一个旨在模仿 Hugging Face 流行的 Transformers 库的恶意文件,以便融入 AI 开发环境。 OpenAI 表示,这些攻击凸显了行业内日益增长的风险。 “这次事件反映了威胁格局的更广泛变化:攻击者越来越多地针对共享的软件依赖和开发工具,而非针对某个单一公司,”他们写道。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论