✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
今天是国际事实核查日。刷新你的AI识别技能吧
如今,AI 生成的内容无处不在,使得越来越难以区分事实与虚构,尤其是在涉及突发新闻时。
别再找了,就看伊朗战争吧。自美国和以色列于 2 月 28 日袭击伊朗以来,研究人员已经识别出前所未有数量的虚假和误导性图片——这些图片是使用人工智能生成的,并传到世界各地的无数人手中。在其中,包含从未发生过的轰炸的伪造影像,被声称遭俘的士兵的图片,以及由伊朗制作的宣传视频——视频将唐纳德·特朗普和其他人描绘成方块感十足、类似乐高的微型人偶。
今天,第 10 届年度国际事实核查日,为审视这些不断演变的挑战提供了一个良好机会。
正在利用 AI 制作的错误信息以史无前例的速度,从数量无穷的来源被传播出去。从伊朗战争一开始,各方阵营的账号就一直在推广这类内容。
追踪虚假信息和网络极端主义的战略对话研究所(Institute for Strategic Dialogue)一直在审查围绕伊朗战争的社交媒体帖子。在他们的发现中,有一组 X 账号会定期发布 AI 生成的内容,并且在冲突开始以来合计获得了超过 10 亿次观看。这是通过大约二十几个账号完成的,其中许多账号拥有蓝色勾号认证。
以下是一些在在线世界中区分 AI 生成内容与现实的方法建议——而在这个世界里,这件事正变得越来越难。
24
当 AI 生成的图像首次在网上广泛传播时,往往有一些明显的破绽可以将其识别为被伪造的。或许某个人的手指太少——或太多——,或者他的声音与嘴型不同步。文字可能毫无意义。物体经常被扭曲,或缺少关键组成部分。随着技术持续发展,这些线索不再像以前那样常见,但仍然值得去留意。关注诸如“某一刻画面里有一辆车,下一刻却消失了”这类不一致之处,或那些不符合物理定律、无法实现的动作。有些图片也可能过度“精修”,或呈现不自然的光泽。
寻找来源
AI 生成的图像会被反复转发与分享。判断它们是否真实(或并非如此)的一种方法,是追查它们的来源。使用反向图片搜索就是一种简单途径。如果你看到的是一段视频,先截取一张截图。这可能会指向一个专门生成 AI 内容的社交媒体账号、被错误解读的更早期的图片,或者完全出乎意料的其他情况。
聆听专家
寻找多个经过验证的来源,帮助核实该图片。例如,这可能意味着来自信誉良好的媒体机构的事实核查、公众人物的一份声明,或来自信息误导领域专家的社交媒体帖子。这些来源可能采用更先进的技术来识别 AI 生成的内容,或获取关于该图片的一些普通公众无法访问的信息。
善用技术
有许多 AI 检测工具,可以作为一个有用的起点。但要当心,因为它们的评估并不总是正确。使用谷歌的 Gemini 应用生成或改动的图片包含一种名为 SynthID 的隐形数字水印工具,该应用可以检测到。其他一些 AI 创作工具会在它们生成的内容上添加可见水印。不过,这类水印通常也很容易被移除,这意味着“没有这种水印”并不能证明图片就是真实的。
放慢脚步
有时候,这只是回到基础。停下来,深呼吸,不要立刻分享你不确定是否真实的内容。恶意行为者往往依赖这样的事实:人们会让他们的情绪和既有观点引导自己对内容的反应。查看评论可能会提供线索,帮助判断你看到的图片是真是假。另一位用户可能注意到了你没发现的东西,或能够找到原始来源。不过最终情况是:并不总是可能以 100% 的准确度判断一张图片是否由 AI 生成,因此要保持警惕,留意它可能并不真实。
看到看起来虚假或具有误导性的东西?请发送邮件给我们: [email protected]。
在这里查看 AP 的事实核查: