Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Diễn đàn Zhongguancun | Các ngôi sao hàng đầu trong giới AI như Yang Zhilin, Zhang Peng, Xia Lixue, Luo Fuli đã cùng nhau trò chuyện về điều gì?
《Kinh Doanh nhật báo》 phóng viên Lý Tĩnh đưa tin từ Bắc Kinh
Ngày 27 tháng 3, tại Hội nghị Diễn đàn Zhongguancun thường niên năm 2026, những nhân tài hàng đầu của Trung Quốc trong lĩnh vực mô hình AI lớn và hạ tầng AI đã tụ họp trong một phiên thảo luận bàn tròn.
Phiên bàn tròn do nhà sáng lập Mặt Trăng Bên Tối, Dương Thực Lân, làm người điều phối; CEO Trương Bằng của Zhizhi Huazhang, đồng sáng lập kiêm CEO Hà Lập Tuyết của WENWEN Chip Qiong, Trương Phúc Ly phụ trách mô hình AI lớn của Xiaomi MiMo, cùng với Giáo sư trợ giảng Đại học Hồng Kông, tiến sĩ hướng dẫn kiêm trưởng nhóm Nanobot, Hoàng Siêu cùng tham gia.
《Kinh Doanh nhật báo》 phóng viên chú ý rằng, những kỹ thuật nhân tài đến từ giới công nghệ của ngành AI khi đối thoại không có những lời xã giao lạnh lẽo. Chủ đề trải từ cú chấn động lớn trong ngành do “Tôm hùm (OpenClaw)” khởi phát, cho đến những luồng sóng ngầm của hệ sinh thái mã nguồn mở; từ nỗi lo lắng vì chi phí suy luận tăng vọt, đến việc tái cấu trúc sức mạnh tính toán trong kỷ nguyên Agent.
Trong va chạm tư duy này, họ không chỉ vạch ra lộ trình tiến hóa của mô hình AI lớn trong 12 tháng tới từ “trò chuyện cho vui” sang “làm việc”, mà còn nêu ra câu hỏi khiến mọi người vừa hưng phấn vừa lo lắng: khi lượng Token bước vào đợt bùng nổ gấp trăm lần, chúng ta đã sẵn sàng chưa?
Nói về “Tôm hùm”: Agent tái định hình tương tác người–máy
Ngay khi phiên bàn tròn bắt đầu, câu chuyện tập trung vào “Tôm hùm” đang gây sốt gần đây. Đây không chỉ là một bản cập nhật sản phẩm, mà còn được xem như mốc chia ranh giữa các ứng dụng của ngành AI.
Với làn sóng Agent này, Trương Bằng cho rằng lõi của nó là giúp AI tiến hóa từ “đối thoại đơn giản” thành “thực sự làm việc”.
Anh chỉ ra rằng “Tôm hùm” đặt ra yêu cầu cực cao đối với năng lực mô hình: cần mô hình có khả năng suy nghĩ và lập kế hoạch trong thời gian dài, cũng như xử lý năng lực đối với lượng lớn ngữ cảnh. Điều này cũng trực tiếp dẫn đến chiến lược tăng giá gần đây của Zhizhi đối với mô hình suy luận GLM.
“Vì làm những việc phức tạp đồng nghĩa với việc chi phí suy luận tăng theo cấp số mũ; quay trở lại logic giá trị thương mại bình thường là con đường bắt buộc để ngành phát triển lành mạnh.” Trương Bằng đáp lại.
Hà Lập Tuyết tiết lộ rằng, kể từ khi “Tôm hùm” bùng nổ từ đầu năm nay, lượng Token mà công ty của bà xử lý gần như cứ mỗi hai tuần lại tăng gấp đôi; mức tăng lũy kế đạt 10 lần. Tốc độ bùng nổ này lần trước xuất hiện vẫn là vào thời kỳ phổ cập lưu lượng điện thoại 3G.
Hà Lập Tuyết cho rằng hạ tầng đám mây trong quá khứ được thiết kế cho “các kỹ sư con người”, còn kỷ nguyên Agent cần hạ tầng được thiết kế cho “AI”. Bà thậm chí dùng phép so sánh “theo phút” và “theo mili giây” để mô tả sự lệch pha này: con người khởi phát tác vụ ở mức theo phút, trong khi việc suy nghĩ và khởi phát tác vụ của Agent là theo mili giây.
“Vì vậy, trong tương lai, hạ tầng phải hiệu quả như một nhà máy Token, thậm chí phát triển thành một tác nhân có thể tự tiến hóa, tự lặp lại.” Hà Lập Tuyết dự đoán.
La Phúc Ly cho rằng giá trị lớn nhất của OpenClaw nằm ở “mã nguồn mở”, điều này có lợi cho cộng đồng tham gia sâu. Nó kéo trần của các mô hình đóng mã top thứ hai trong nước lên rất cao; trong hầu hết các tình huống, mức độ hoàn thành tác vụ đã rất gần với mô hình mới nhất, đồng thời còn dựa vào hệ Skill để đảm bảo mức tối thiểu. Cùng với đó, mã nguồn mở cũng thắp lên nhiệt huyết của cộng đồng đối với việc khám phá lớp Agent bên ngoài mô hình AI lớn, khiến nhiều người không thuộc giới nghiên cứu tham gia vào sự biến đổi của AGI.
Hoàng Siêu thì bổ sung rằng OpenClaw, với kiểu tương tác giống như phần mềm nhắn tin tức thời, đã trao cho tác nhân cảm giác “như người thật” mạnh hơn, giảm ngưỡng tạo và sử dụng Agent; trong tương lai cũng có nhiều khả năng sẽ khuấy động toàn bộ hệ sinh thái công cụ.
Thách thức về sức mạnh tính toán và chi phí
Khi AI chuyển từ kỷ nguyên huấn luyện sang kỷ nguyên suy luận, việc lặp tiến công nghệ mô hình, giá trị thương mại quay trở lại và hạ tầng sức mạnh tính toán nâng đỡ trở thành những chủ đề then chốt của sự phát triển ngành.
Dương Thực Lân so sánh mã nguồn mở với “giàn giáo”, cho rằng nó hạ thấp ngưỡng sử dụng năng lực của các mô hình hàng đầu đối với người bình thường, giúp AI không còn là đặc quyền của các lập trình viên. Nhưng ông cũng thẳng thắn rằng hiện cộng đồng mã nguồn mở đang đối mặt với khoảng trống rất lớn về sức mạnh tính toán cho suy luận.
Về “lo lắng do sức mạnh tính toán” được nhắc đi nhắc lại trong thảo luận bàn tròn. Trương Bằng thừa nhận rằng do mức độ phức tạp của tác vụ tăng lên, số lần gọi để hoàn thành một tác vụ có thể gấp 10 lần, thậm chí gấp 100 lần so với hỏi đáp đơn giản; điều này khiến sức mạnh tính toán trở thành nút thắt kìm hãm sự phát triển của ngành.
Hà Lập Tuyết cho biết vấn đề hiện nay nằm ở chỗ nhu cầu bùng nổ do AI, kéo theo yêu cầu tối ưu hiệu suất hệ thống. “Chúng tôi giải quyết bằng cách kết nối liền mạch phần mềm và phần cứng, tích hợp gần như mọi loại chip tính toán, kết nối với hàng chục loại chip và cụm tính toán trong nước, nâng cao hiệu suất chuyển đổi, biến Trung Quốc thành nhà máy Token của thế giới.”
Ông cũng phác họa một viễn cảnh vĩ đại—“AI Made in China”, tức là tận dụng lợi thế về năng lượng và sản xuất của Trung Quốc, chuyển năng lượng thành đầu ra Token chất lượng cao cho toàn cầu thông qua hạ tầng hiệu quả.
Tuy nhiên, hạ tầng điện toán đám mây hiện có lại giới hạn sự phát triển của Agent, cần phải xây dựng hạ tầng AI thông minh hơn để thích ứng với nhu cầu tần suất cao của Agent. “Theo quan điểm của chúng tôi, bản thân hạ tầng cũng nên là một tác nhân thông minh, có thể tự tiến hóa, tự lặp lại, hình thành tổ chức tự chủ.” Hà Lập Tuyết bổ sung.
La Phúc Ly chỉ ra rằng hai năm trước, khi đội ngũ Trung Quốc bị hạn chế về sức mạnh tính toán—đặc biệt là hạn chế về băng thông liên kết—họ đã tạo ra đột phá về cấu trúc mô hình (như DeepSeek).
“Dù hiện nay chip nội địa không còn bị hạn chế, nhưng những cuộc thăm dò về hiệu suất cao và chi phí suy luận thấp vẫn luôn quan trọng.” La Phúc Ly nói. Tiền đề để OpenClaw càng dùng càng thông minh là Context cho suy luận. Vấn đề khó khăn hiện tại là: làm thế nào trong bối cảnh ngữ cảnh dài 1M hoặc 10M, vẫn đạt chi phí đủ thấp và tốc độ đủ nhanh? “Chỉ khi实现 Long Context (ngữ cảnh dài) suy luận hiệu quả, mới có thể chống đỡ khả năng tự lặp lại của Agent trong môi trường phức tạp; đây sẽ là chiến trường then chốt của cạnh tranh trong tương lai.”
Và La Phúc Ly cũng dự đoán rằng, theo sự bùng nổ nhu cầu suy luận do Agent mang lại, trong năm nay nhu cầu về Token có thể tăng 100 lần, các chiều cạnh cạnh tranh sẽ đi sâu xuống tận tầng sức mạnh tính toán, chip suy luận và thậm chí là tầng năng lượng.
Hoàng Siêu cho rằng hiện nay, về mặt Memory, Agent vẫn tồn tại vấn đề nén thông tin không chính xác và không nhớ được. Trong các tác vụ dài hạn và tình huống phức tạp, Memory sẽ bùng nổ, tạo ra áp lực rất lớn. “Tôi nghĩ tương lai Memory nên đi theo thiết kế phân tầng, để Memory trở nên phổ quát hơn.”
Hướng tới 12 tháng tới
Nếu dùng một từ để mô tả xu hướng phát triển của mô hình AI lớn trong mười hai tháng tới, bạn sẽ chọn từ nào?
Từ khóa của Hoàng Siêu là “hệ sinh thái”. Anh dự đoán rằng phần mềm trong tương lai có thể được thiết kế nguyên sinh cho Agent, toàn bộ ngăn xếp công nghệ cần tiến hóa sang mô hình “Agent Native”. Điều này cần cộng đồng mã nguồn mở, nhà phát triển mô hình và các nhà cung cấp ứng dụng cùng kiến tạo để Agent thực sự lắng đọng từ “một món đồ mới chơi rất thú vị” thành “đồng nghiệp số” (Co-worker) đáng tin cậy.
Từ khóa của La Phúc Ly là “tự tiến hóa”. Bà cho rằng khung Agent mạnh mẽ đã kích hoạt phần ngưỡng mà mô hình AI lớn trước đây chưa từng chạm tới. Trong các vòng lặp có thể xác minh, mô hình đã có thể tự tối ưu hóa mục tiêu trong nhiều ngày, như việc khám phá cấu trúc mô hình tối ưu hơn trong nghiên cứu khoa học. Bà dự kiến rằng năng lực “tự tiến hóa” này trong 1–2 năm tới sẽ nâng hiệu suất của các công việc sáng tạo như nghiên cứu khoa học lên một vài bậc độ lớn.
Từ khóa của Hà Lập Tuyết là “token bền vững”. Theo ông, hiện tại toàn bộ sự phát triển của AI vẫn đang ở trong một quá trình thúc đẩy liên tục dài hạn, nhưng một vấn đề rất thực tế là tài nguyên cuối cùng là hữu hạn.
“Liệu có thể liên tục, ổn định và cung cấp token với quy mô lớn hay không—để các mô hình hàng đầu thực sự phục vụ lâu dài cho nhiều tình huống đầu ra—đây là một câu hỏi vô cùng then chốt.” Theo quan điểm của Hà Lập Tuyết, nếu có thể biến lợi thế của Trung Quốc về năng lượng thông qua nhà máy Token thành token chất lượng cao một cách bền vững, và xuất khẩu ra toàn cầu, thì Trung Quốc có cơ hội trở thành “nhà máy Token” của thế giới.
Từ khóa mà Trương Bằng chọn là “sức mạnh tính toán”. Khung tác nhân, thực sự đã giải phóng năng lực sáng tạo của rất nhiều người, và hiệu suất cũng có thể tăng gấp 10 lần, nhưng điều kiện tiên quyết là mọi người phải dùng được và dùng được.
“Hai năm trước, Viện sĩ Trương Á Nhuận đã nói ở Diễn đàn Zhongguancun một câu, đại ý là ‘không có card thì không có cảm xúc; nói chuyện về card thì làm mất tình cảm’, tôi cảm thấy hôm nay kỳ thực lại hơi quay về trạng thái đó.” Trương Bằng nói.
(Biên tập: Trương Tĩnh Siêu Duyệt: Lý Chính Hào Hiệu đính: Diêm Kinh Ninh)
Hàng loạt thông tin, diễn giải chính xác, tất cả đều có trên ứng dụng Sina Finance