谷歌“首次确认AI生成的零日漏洞利用”……攻击工具开发全面启动

robot
摘要生成中

谷歌威胁情报集团(GTIG)宣布,已捕捉到首例确认利用人工智能(AI)制造出实际可运行的“零日漏洞”利用程序(exploit)的案例。虽然尚未确认导致大规模损害的迹象,但鉴于AI已被正式用于开发攻击工具,安全行业的警惕性正进一步提高。

根据这份报告,某个犯罪黑客组织针对广泛使用的、基于开源Web的系统管理工具中的“绕过双重认证”漏洞,制作了基于Python的利用程序。分析显示,他们试图将其投入大规模攻击行动,但因实施过程中的错误,实际利用并不顺利。谷歌已将相关漏洞告知供应商,目前补丁已发布。

GTIG解释称,代码中多处明显可见AI干预的痕迹。例如,插入了与实际不符的严重性评分,存在过于“教科书式”的Python格式、详细的帮助菜单,以及带有浓厚训练数据痕迹的说明性文档字符串。不过,谷歌明确表示,其自家的Gemini模型并未被用于此次操作。

瞄准了传统安全工具难以发现的“语义逻辑缺陷”

此次的漏洞源于比简单编码错误更棘手的“语义逻辑缺陷”。开发者将信任特定对象的假设固化在代码中,这一高层级的设计错误成为了攻击面。这类漏洞传统安全扫描器很难检测,因为它们容易认为其“功能正常”。

相反,GTIG解释称,最新的大型语言模型(LLM)在推断开发者意图、找出表面看起来没问题的逻辑中隐藏的缺陷方面展现出优势。这意味着AI已超越简单的自动化工具,进入了能够理解安全审查上下文的新阶段。

GTIG首席分析师约翰·赫尔特奎斯特表示:“认为基于AI的漏洞竞争即将开始的想法是一种误解。现实是它已经开始了,如果确认有一个与AI相关的零日漏洞,那么未被发现的案例可能多得多。”他诊断称,威胁行为者正通过AI提升攻击的速度、规模和精密度。

中国、朝鲜、俄罗斯在攻击全过程中利用AI

GTIG认为,此次案例并非例外,而是更广泛趋势的一部分。报告显示,与中国、朝鲜、俄罗斯有关的国家支持的黑客组织,在侦察、漏洞分析、恶意软件开发乃至影响力行动等攻击的各个阶段都在使用AI。犯罪组织也采用同样的方式,以更快的速度制作恶意软件,并运营更大规模的行动。

观察到朝鲜关联威胁组织“APT45”采用了一种方式:通过发送数千次重复提示词(prompt),对漏洞进行递归分析并验证概念验证(PoC)利用程序,这被解读为是试图构建一个没有AI帮助就难以管理的攻击资产。

据称,疑似与中国有关联的“UNC2814”组织,采用被称为“越狱”(jailbreak)的技术(即以专家身份角色诱导),诱使Gemini调查TP-Link路由器固件和Odette文件传输协议实现中的预认证远程代码执行(RCE)漏洞。

另一个中国关联行为者被发现同时使用“Hexstrike”、“Strix”框架以及名为“Graphiti”的内存系统,自主探索了一家日本科技公司和一个位于东亚的网络安全平台。说明指出,他们会根据内部推理更换侦察工具,人员干预被降至最低。

蔓延至安卓后门、虚假代码及语音克隆

报告还介绍了名为“PROMPTSPY”的安卓后门。这种恶意软件在运行时会调用Gemini API,以解释智能手机屏幕上的用户界面元素,并自动生成触摸坐标。这表明AI正被整合到移动攻击自动化中。

分析显示,与俄罗斯相关的恶意软件系列“CANFAIL”和“LONGSTREAM”,通过插入AI生成的诱饵代码来隐藏真实的恶意功能。此外,调查发现,俄方行为者在其“Overload行动”影响力行动中,利用AI语音克隆制作了冒充真实记者的虚假视频,并针对乌克兰、法国和美国进行传播。

与此同时,犯罪组织“TeamPCP”被指是今年3月入侵流行AI网关实用程序“LiteLLM”的幕后黑手。调查发现,他们通过PyPI污染包和恶意拉取请求(Pull Request)植入了凭证窃取工具,盗取了亚马逊云服务(AWS)密钥和GitHub令牌,并通过勒索软件合作关系变现。

谷歌:“已屏蔽恶意账户,扩大AI防御工具”

作为应对措施,谷歌表示将屏蔽滥用Gemini的恶意账户,并扩大基于AI的防御手段的使用,例如漏洞检测代理“Big Sleep”和补丁工具“CodeMender”。

这份报告的核心在于,AI已不再是实验室级别的辅助工具。从实际制作零日漏洞利用程序、隐藏恶意代码,到移动后门自动化、散播虚假信息,AI已经渗透到攻击现场的各个角落。有分析认为,安全竞争的核心正从“谁能更快发现和应对漏洞”转变为“谁能更好地控制和利用AI”。

TP AI注意事项 本文使用基于TokenPost.ai语言模型的AI进行了摘要。本摘要可能遗漏原文主要内容或与事实不符。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论