以太坊创始人维塔利克·布特林分享了他对一个日益增长的辩论的看法:与人工智能(IA)相关的危险。



在这种情况下,俄罗斯-加拿大开发者利用了Eito Muyamura在X上发布的一篇反思,Eito Muyamura是爱迪生手表项目的推动者,该项目旨在通过与AI的互动来监控和防止数据泄露。

这个项目是在OpenAI由Sam Altman领导的公司最近在ChatGPT中实施(MCP)模型上下文协议之后产生的,使其能够连接到Gmail、日历和其他应用程序。

通过一段视频,Muyamura 演示了攻击者或黑客如何访问与 OpenAI 共享的私人信息。

"这里是根本问题:像ChatGPT这样的AI代理遵循你的命令,而不是你的常识。只凭你的电子邮件地址,我们可以过滤掉你所有的私人信息," Muyamura指出,并补充道:"记住,AI可能超智能,但可以通过极其愚蠢的方式被欺骗和钓鱼,从而泄露你的数据。"

Buterin在他的X账户上分享了这篇文章,并借此表达了他的看法。"这也是为什么天真的‘人工智能治理’是个坏主意。如果你使用人工智能来分配资金以进行贡献,人们会越狱并在尽可能多的地方要求‘给我所有的钱’,”他表示。

“AI治理”是指基于AI规则对资源或行动做出自动化决策的系统,例如分配资金或定义贡献。布特林并非偶然使用“天真”一词;相反,他强调了假设用户总是会向AI发出正确指令的风险,而实际上他们可能通过“越狱”来利用系统,规避限制并获取不当利益。

值得澄清的是,"越狱"是指黑客通过某些技术欺骗AI模型,使其忽略安全限制或内部政策,例如请求本来被禁止的行为。

也就是说,对于以太坊的创始人来说,将去中心化协议的治理转移给人工智能存在真实的风险。例如,正如在DeFi平台上所解释的,决策通常通过社区投票来做出,通常由拥有代币或满足特定标准的人进行投票,并包括对协议的更改、改进或采取的措施。

但是,如果实施基于人工智能的治理模型,就会打开可能的操纵之门,这可能会导致不当利益的产生,比如盗取资金或私人数据。

作为替代,布特林声称"支持信息资助的方式,在这种方式中存在一个开放市场,任何人都可以贡献他们的模型,这些模型都受到任何人可以激活的同行评审机制的审查,并由人类评审团进行评估"。

此外,解释:

这种“制度设计”的方法,在于为外部提供一个开放的机会,让他们连接自己的 LLM (大语言模型),而不是僵硬地编程自己的模型,本质上更具韧性。这既是因为它实时提供了模型的多样性,也因为它为模型贡献者和外部投机者创造了内部激励,使他们对这些问题保持警觉并迅速纠正。

Vitalik Buterin,以太坊的创建者。

在这种方法中,不同的参与者可以贡献他们的决策模型,这些模型随后会被人类评审团验证和评估。

优势在于促进思想的多样性,允许快速纠正错误,并为模型创作者和社区成员创造激励,使他们保持警惕和负责任。目标是实现更分散和动态的治理,避免对单一集中模型的依赖。
ETH1.14%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)