10,000 USDT 悬赏,寻找Gate广场跟单金牌星探!🕵️♀️
挖掘顶级带单员,赢取高额跟单体验金!
立即参与:https://www.gate.com/campaigns/4624
🎁 三大活动,奖金叠满:
1️⃣ 慧眼识英:发帖推荐带单员,分享跟单体验,抽 100 位送 30 USDT!
2️⃣ 强力应援:晒出你的跟单截图,为大神打 Call,抽 120 位送 50 USDT!
3️⃣ 社交达人:同步至 X/Twitter,凭流量赢取 100 USDT!
📍 标签: #跟单金牌星探 #GateCopyTrading
⏰ 限时: 4/22 16:00 - 5/10 16:00 (UTC+8)
详情:https://www.gate.com/announcements/article/50848
我们来了!第一个由人工智能开发的已知零日漏洞刚刚被谷歌发现。
有人使用大语言模型(LLM)发现了一个开源管理工具中的缺陷。然后让模型编写了一个绕过两步验证的Python脚本。接着开始在真实目标上使用它。
我们怎么知道这是AI?到处都是干净的文档字符串。模型实际上虚构的CVSS严重性评分。没人会在凌晨3点写出如此整洁的Python代码来寻找漏洞。
这个漏洞本身是一个逻辑缺陷,是某个开发者多年前硬编码的信任假设。这是LLMs擅长捕捉的那种错误。
多年来的问题一直是“AI能否帮助攻击者?”充满了犹豫。“理论上可以。” “最终可以。” “只要有足够的支撑。”
这个辩论已经结束。
现在的问题是“漏洞存在于你的堆栈中的某个地方”到“漏洞被大规模利用”之间的时间窗口有多快。以前是几个月,现在是几天。