📢 Gate廣場 #MBG任务挑战# 發帖贏大獎活動火熱開啓!
想要瓜分1,000枚MBG?現在就來參與,展示你的洞察與實操,成爲MBG推廣達人!
💰️ 本期將評選出20位優質發帖用戶,每人可輕鬆獲得50枚MBG!
如何參與:
1️⃣ 調研MBG項目
對MBG的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與MBG相關活動(包括CandyDrop、Launchpool或現貨交易),並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是現貨行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
MBG熱門活動(帖文需附下列活動連結):
Gate第287期Launchpool:MBG — 質押ETH、MBG即可免費瓜分112,500 MBG,每小時領取獎勵!參與攻略見公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通過首次交易、交易MBG、邀請好友註冊交易即可分187,500 MBG!參與攻略見公告:https://www.gate.com/announcements
“T-Bank”將LLM的320億參數發佈到公開領域
“T-bank”將32億個LLM參數公開
“T Bank”開放了兩個大型語言模型(LLM)T-Pro和更新版本的T-Lite。《Vedomosti》援引該銀行的代表報道。
專業版神經網絡具有32億參數,T-Lite具有7億參數。第二個在2024年7月發佈。
參數數量反映了模型考慮更多上下文、更好地記住信息並給出準確答案的能力。舉例來說,Meta 405的Llama 3.1擁有405億個參數,法國初創公司Mistral的Large 2擁有123億個參數。 請輸入要翻譯的文本。 對T-Pro和T-Lite的開放訪問將使企業能夠免費使用神經網絡解決內部問題並基於開發的模型創建新產品。例如,《Vedomosti》提供了智能客服機器人和員工助手,例如編寫代碼工具、撰寫報告或研究。
所展示的模型屬於LLM Gen-T系列,旨在解決特定領域的問題。這使它們與通用的ChatGPT有所不同。
T-Lite和T-Pro是基於中國開發者阿里巴巴集團的Qwen-2.5開發的,並針對俄語進行了適配。
企業可以在自己的服務器上運行語言模型並根據具體情況進行再訓練,Dbrain首席執行官Alexei Khakhunov強調。
在俄羅斯,提供了一個基於AI的虛擬助手給心理學家,可以提高生產力、服務質量和收入的兩倍。
同月,俄羅斯科學家推出了一款名為XLand-MiniGrid的新開放環境,旨在用於開發強化學習算法的上下文學習,這是人工智能研究的一個獨立方向。