Yann LeCun 表示他在关于 GPT-2 的 withholding 方面戏弄了 OpenAI

robot
摘要生成中

Headline

扬·勒昆表示他曾嘲讽OpenAI未发布GPT-2

Summary

扬·勒昆,Meta的首席人工智能科学家,最近在Twitter上承认,他在2019年嘲笑OpenAI,当时他们最初拒绝发布完整的GPT-2模型。OpenAI曾辩称该模型过于危险——它可能生成令人信服的假新闻——因此他们分阶段发布,从2019年2月开始推出一个较小的版本,最终在11月发布了完整的15亿参数模型,因为合作伙伴报告的实际误用极少。勒昆的推文提醒我们,人工智能社区多年来一直在争论开放与谨慎之间的问题,这些争论并没有消失。

Analysis

OpenAI对GPT-2的担忧并非没有根据。当时的研究发现,人们对其合成文本的可信度评估约为72%,而检测确实很困难。他们的分阶段发布方法成为实验室处理强大模型的一种模板。勒昆长期以来对他所认为的夸大的安全担忧持怀疑态度,偏好开放研究,让每个人都能建立对策。他在2024年的推文重提“过于危险”的框架符合这种模式。

时机很重要。这一问题在2026年再次浮现,同时对人工智能监管的辩论正在加剧。GPT-2事件不断被提及,因为它凝聚了一个真实的紧张关系:限制访问是否真的能防止伤害,还是只是在拖慢试图抵御误用的人们?没有明确的答案,这可能就是我们七年后仍在谈论它的原因。

我在搜索中找不到勒昆2019年具体的嘲讽推文,但他的总体立场在OpenAI自己的帖子、MIT科技评论和《边缘》上都有很好的记录。

Impact Assessment

  • Significance: 中等
  • Categories: 人工智能安全, 开源, 人工智能研究
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论