🎉 攢成長值,抽華爲Mate三折疊!廣場第 1️⃣ 2️⃣ 期夏季成長值抽獎大狂歡開啓!
總獎池超 $10,000+,華爲Mate三折疊手機、F1紅牛賽車模型、Gate限量週邊、熱門代幣等你來抽!
立即抽獎 👉 https://www.gate.com/activities/pointprize?now_period=12
如何快速賺成長值?
1️⃣ 進入【廣場】,點擊頭像旁標識進入【社區中心】
2️⃣ 完成發帖、評論、點讚、發言等日常任務,成長值拿不停
100%有獎,抽到賺到,大獎等你抱走,趕緊試試手氣!
截止於 8月9日 24:00 (UTC+8)
詳情: https://www.gate.com/announcements/article/46384
#成长值抽奖12期开启#
AMD MI300絕殺英偉達H100? 跑GPT-4性能超25%,AI晶片大決戰一觸即發
文章來源:新智元
AI晶片大決戰,即將來臨!
AI硬體開發商初創公司的未來會怎樣?
Tenstorrent CEO David Bennett直言不諱地表示,在我們這個行業,大部分初創公司的結局就是倒閉。
該如何生存? 他建議初創企業應該保持靈活性,避免將自己局限在狹隘的用例中。
這裡,Bennett指的並不是某個小眾市場, 而是由 SiMa.ai 到Cerebras等數十家公司組成的一個廣泛集團。 他們共同籌集了數十億美元的風投,來對抗這個市場的領導者——英偉達。
Bennett深諳此道。 他曾在AMD從事銷售工作十多年。
而他目前的僱主Tenstorrent的CEO,是Jim Keller,一位硬體傳奇人物。 他曾開發出支援iPhone 4和iPad 2的蘋果A4和A5處理器,並在2016年至2018年負責特斯拉自動駕駛汽車的硬體工作。
Bennett表示,如今的晶片初創公司,大致都是在「為AI製造專用硬體」和「依賴當下流行模式」這兩者之間徘徊。
英偉達的劣勢:很難從頭製造晶元
英偉達的AI晶元GPU起家的故事,實際上為今天的晶元初創公司提供了優勢。
圖形處理單元起初是為計算機圖形學提供動力的,但由於它能並行執行多種計算,才在AI應用領域大放異彩。
不過,但這一意外也給英偉達帶來了不利因素——現在,英偉達很難在不影響現有GPU業務的情況下,從頭開始製造晶元了,而這,就給了新興初創公司提供了機會,製造專為AI打造的新硬體。
比如,Tenstorrent的工程師就為未來的稀疏神經網路設計了Grayskull晶片,在這種網路中,冗餘資訊可以被去除。
在這種架構下,基於Transformer的模型基本是在預測最有可能出現的下一個單詞,因此它們一直被詬病生成的回答是基於概率,而非基於推理。
這也就意味著,在當前的AI熱潮中,這些模型架構可能無法倖存下來。
畢竟,由於發展速度太快,如今的LLM壽命相對較短。 昨天還炙手可熱的模型,一兩周後可能就會銷聲匿跡。
另一個對硬體公司來說風險很大的領域,就是製造專門用於推理的晶元。
這方面的代表是晶元開發商d-Matrix,它計劃在明年上半年發佈推理專用晶元。
正因如此,許多人認為,應該在模型推理上花更多錢,而非模型訓練上。
雖然從商業角度來看,這可能是一個明智之舉,但Bennett認為,過於狹隘地專注於推理,會阻礙硬體開發人員為其他可能更受歡迎的用例提供服務。
例如,對於運行模型所需的低精度計算,純推理晶元就夠了。
但是,如果開發者想要微調大模型,就很可能需要能處理更高精度計算的晶元了。
尖端晶片,把GPU和CPU放在一起
為了在即將到來的AI晶元大決戰中倖存,晶元開發商需要改變晶元的架構。
今天,大多數晶元都是把GPU和CPU分開的。 前者能夠同時執行多種計算,後者負責執行更多的通用指令,管理更廣泛的系統操作。
然而越來越多的尖端晶元(如英偉達的Grace Hopper 超級晶元和AMD即將推出的MI300A),都將GPU和CPU放在一起。
這種佈局可以讓CPU更快地準備數據,將數據載入到GPU上,從而加快模型的訓練。
另外,硬體初創公司想要打破英偉達的市場主導地位,還面臨著一個最大的障礙,就是軟體優勢。
英偉達用於編寫機器學習應用程式的Cuda軟體,只能在自家晶元上運行。 而這實際上就把開發者鎖定在了英偉達GPU上。
AMD MI300跑GPT-4更6
英偉達的霸主地位,就這麼難以撼動?
Semianalysis記者Dylan Patel和Myron Xie最近就發文稱,AMD的MI300在性價比方面,將會明顯優於英偉達的H100!
相比之下,Groq、SambaNova、英特爾、亞馬遜、微軟等公司仍無法與之抗衡。
此外,為了應對英偉達基於CUDA構建的護城河,AMD一直在大力投資自己的RoCM軟體、PyTorch生態系統和OpenAI的Triton。
隨著Databricks、AI21、Lamini、Moreph等公司開始使用AMD GPU進行推理/訓練,AMD自己的生態也愈發完善。
據業內人士透露,擁有更大顯存的MI300,在部署32K上下文視窗的GPT-4模型時效果更好。
再加上更低廉的價格,MI300在性價比方面,將會明顯優於英偉達的H100,甚至是H200。
大廠紛紛下單
目前,微軟、Meta、甲骨文、谷歌、Supermicro/Quantadirect、亞馬遜等公司已經向AMD下了大約205,000台MI300的訂單。
在這之中,有120,000台專門供應給微軟,25,000台給Meta,12,000台給甲骨文,8,000台給谷歌,5,000台給亞馬遜公司,35,000台給其他公司。
而且由於數量巨大,微軟購買MI300的價格預計要比其他客戶低上不少。
在供應方面,MI300的產能將在年內逐步提升,但由於英偉達B100會在第二季度開始出貨,並在第三季度隨著性價比更高的風冷版的推出而大幅提升,這將在很大程度上影響AMD在第四季度的出貨量。
同時,還需要考慮記憶體製造商的HBM產量、CoWoS產量、封裝產量以及使用CoWoS生產的每種加速器的情況,包括英偉達、AMD、Google/Broadcom、Meta/Broadcom、Intel/Al Chip、Amazon/Al Chip、Amazon/Marvell、Microsoft/GUC等。
即便如此,業內依然認為MI300X第四季度的出貨量可以達到110,000台。
利潤方面,英偉達並沒有降價的跡象,只是在價格不變的情況下增加了HBM容量/頻寬。 而與英偉達超過80%的獲利率相比,AMD在MI300上的獲利率僅勉強超過了50%。
這一增長也將使MI300成為AMD歷史上銷售額最快達到10億美元的產品。
對此,業內對於MI300X的銷售額則更加樂觀——預期可以達到35億美元。
從AMD目前在LLM訓練和推理領域小於0.1%的市場份額來看,AMD在數據中心領域的市場份額依然會穩步增長。