📢 Gate广场专属 #WXTM创作大赛# 正式开启!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),总奖池 70,000 枚 WXTM 等你赢!
🎯 关于 MinoTari (WXTM)
Tari 是一个以数字资产为核心的区块链协议,由 Rust 构建,致力于为创作者提供设计全新数字体验的平台。
通过 Tari,数字稀缺资产(如收藏品、游戏资产等)将成为创作者拓展商业价值的新方式。
🎨 活动时间:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 参与方式:
在 Gate广场发布与 WXTM 或相关活动(充值 / 交易 / CandyDrop)相关的原创内容
内容不少于 100 字,形式不限(观点分析、教程分享、图文创意等)
添加标签: #WXTM创作大赛# 和 #WXTM#
附本人活动截图(如充值记录、交易页面或 CandyDrop 报名图)
🏆 奖励设置(共计 70,000 枚 WXTM):
一等奖(1名):20,000 枚 WXTM
二等奖(3名):10,000 枚 WXTM
三等奖(10名):2,000 枚 WXTM
📋 评选标准:
内容质量(主题相关、逻辑清晰、有深度)
用户互动热度(点赞、评论)
附带参与截图者优先
📄 活动说明:
内容必须原创,禁止抄袭和小号刷量行为
获奖用户需完成 Gate广场实名
AI大模型竞争加剧 技术门槛降低 盈利成难题
AI竞争白热化,谁能在"百模大战"中胜出?
上个月,AI领域爆发了一场"动物大战"。一方是Meta推出的Llama(美洲驼)模型,另一方是名为Falcon(猎鹰)的大模型。
Llama因其开源特性深受开发者欢迎。日本NEC公司研究Llama论文和源码后,迅速开发出日语版聊天机器人。而Falcon则由阿联酋的科技创新研究所开发,曾在开源模型排行榜上力压Llama。
目前,AI领域已进入"群雄逐鹿"阶段。有实力的国家和企业纷纷着手打造自己的大语言模型。仅在海湾地区,沙特阿拉伯就为国内大学购买了3000多块H100芯片用于训练。
这种"一国一模"的现象让人不禁疑惑:号称高门槛的AI技术,怎么演变成了"百模大战"?
Transformer算法改变游戏规则
当前各种大模型的崛起,都要归功于2017年谷歌发表的《Attention Is All You Need》论文。该论文提出的Transformer算法成为此轮AI热潮的关键。
Transformer解决了早期神经网络难以理解长文本上下文的问题。它采用位置编码代替循环设计,实现并行计算,大幅提升了训练效率。这使AI从理论研究转向了工程实践,推动了大模型时代的到来。
2019年,OpenAI基于Transformer开发出GPT-2模型。随后谷歌推出性能更强的Meena,主要靠增加参数和算力。这种"暴力堆砌"的方式震惊了学术界。
如今,底层算法创新速度放缓,数据工程、算力规模等工程要素成为AI竞赛的关键。有一定技术实力的科技公司都能开发出大模型。
入场容易成功难
虽然入场门槛不高,但要在AI时代成为领先企业并不容易。以Falcon和Llama之争为例,Falcon虽然排名更高,但难以对Meta造成实质性冲击。
对开源大模型而言,活跃的开发者社区才是核心竞争力。Meta早在2015年就确立了开源路线,深谙社区运营之道。目前Llama系列已成为开源LLM的风向标,众多模型都基于它开发。
性能方面,大多数LLM与GPT-4仍有明显差距。在AgentBench测试中,GPT-4以4.41分遥遥领先,第二名Claude仅2.77分,开源模型多在1分左右。
造成这种差距的是OpenAI顶尖的科学家团队和长期积累的经验。因此,大模型的核心优势在于生态建设或纯粹的推理能力,而非简单的参数堆砌。
成本与收入失衡成难题
目前大模型提供商普遍面临成本与收入严重失衡的问题。据估算,全球科技公司每年在大模型基础设施上的投入将达2000亿美元,但收入最多750亿美元,存在至少1250亿美元的缺口。
即便是微软、Adobe等巨头,在AI产品上也难以盈利。例如GitHub Copilot每用户每月要倒贴20美元,重度用户甚至让微软亏损80美元。Adobe则不得不设置积分系统限制使用。
对于大多数参数堆砌的大模型来说,主要应用场景仍局限于聊天。随着同质化竞争加剧和开源模型增多,单纯的大模型供应商面临的挑战将更大。
未来,真正能脱颖而出的AI企业,或许不在于模型本身,而在于如何将AI与实际应用场景深度结合,为用户创造真正的价值。就像iPhone 4的成功不在于处理器,而在于丰富的应用生态。