🍀 Spring Appointment, Lucky Draw Gifts! Growth Value Issue 1️⃣7️⃣ Spring Lucky Draw Carnival Begins!
Seize Spring Luck! 👉 https://www.gate.com/activities/pointprize?now_period=17
🌟 How to Participate?
1️⃣ Enter [Plaza] personal homepage, click the points icon next to your avatar to enter [Community Center]
2️⃣ Complete plaza or hot chat tasks like posting, commenting, liking, and speaking to earn growth value
🎁 Every 300 points can draw once, 10g gold bars, Gate Red Bull gift boxes, VIP experience cards and more great prizes await you!
Details 👉 https://www.gate.com/announcements/article/
Yann LeCun 表示他在关于 GPT-2 的 withholding 方面戏弄了 OpenAI
Headline
扬·勒昆表示他曾嘲讽OpenAI未发布GPT-2
Summary
扬·勒昆,Meta的首席人工智能科学家,最近在Twitter上承认,他在2019年嘲笑OpenAI,当时他们最初拒绝发布完整的GPT-2模型。OpenAI曾辩称该模型过于危险——它可能生成令人信服的假新闻——因此他们分阶段发布,从2019年2月开始推出一个较小的版本,最终在11月发布了完整的15亿参数模型,因为合作伙伴报告的实际误用极少。勒昆的推文提醒我们,人工智能社区多年来一直在争论开放与谨慎之间的问题,这些争论并没有消失。
Analysis
OpenAI对GPT-2的担忧并非没有根据。当时的研究发现,人们对其合成文本的可信度评估约为72%,而检测确实很困难。他们的分阶段发布方法成为实验室处理强大模型的一种模板。勒昆长期以来对他所认为的夸大的安全担忧持怀疑态度,偏好开放研究,让每个人都能建立对策。他在2024年的推文重提“过于危险”的框架符合这种模式。
时机很重要。这一问题在2026年再次浮现,同时对人工智能监管的辩论正在加剧。GPT-2事件不断被提及,因为它凝聚了一个真实的紧张关系:限制访问是否真的能防止伤害,还是只是在拖慢试图抵御误用的人们?没有明确的答案,这可能就是我们七年后仍在谈论它的原因。
我在搜索中找不到勒昆2019年具体的嘲讽推文,但他的总体立场在OpenAI自己的帖子、MIT科技评论和《边缘》上都有很好的记录。
Impact Assessment