Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Dương Thực Lâm GTC 2026 Bài phát biểu: Tiết lộ lộ trình công nghệ Kimi, Thảo luận về "Chai lọ Scaling"
Tin tức của Sina Tech sáng ngày 18 tháng 3, tại hội nghị GTC của Nvidia năm 2026, người sáng lập Kimi, Yang Zhilin, đã chia sẻ rằng để thúc đẩy giới hạn trí thông minh của các mô hình lớn liên tục tiến xa hơn, cần phải tái cấu trúc các nền tảng cơ bản như bộ tối ưu hóa, cơ chế chú ý và kết nối dư thừa.
Sau khi chính thức ra mắt Kimi K2.5 vào cuối tháng 1 năm nay, Yang Zhilin lần đầu tiên trình bày một cách hệ thống lộ trình công nghệ đằng sau mô hình này trong bài phát biểu của mình. Ông tóm tắt quá trình tiến hóa của Kimi thành sự cộng hưởng của ba chiều: hiệu quả Token, ngữ cảnh dài và tập hợp các tác nhân (Agent Swarms). Theo Yang Zhilin, quy mô hiện tại không còn đơn thuần là tích tụ tài nguyên, mà phải cùng lúc tìm kiếm hiệu quả tính toán, bộ nhớ dài hạn và hợp tác tự động để đạt hiệu ứng quy mô. Nếu có thể nhân các lợi ích công nghệ của ba chiều này, mô hình sẽ thể hiện trí thông minh vượt xa hiện tại.
Việc tái cấu trúc công nghệ là trọng tâm của bài phát biểu này. Yang Zhilin đề xuất rằng nhiều tiêu chuẩn công nghệ phổ biến hiện nay về bản chất là sản phẩm của tám chín năm trước, đang dần trở thành giới hạn của quy mô.
Kể từ năm 2014, bộ tối ưu Adam luôn được xem là tiêu chuẩn ngành, nhưng trong huấn luyện quy mô siêu lớn, việc tìm kiếm các phương án thay thế hiệu quả Token cao hơn đã trở thành xu hướng. Nhóm Kimi đã xác nhận trong các thử nghiệm rằng bộ tối ưu Muon có tiềm năng rõ rệt trong việc nâng cao hiệu quả Token, nhưng khi mở rộng quy mô huấn luyện mô hình K2 lên hàng nghìn tỷ tham số, họ gặp phải vấn đề ổn định do Logits bùng nổ gây ra sự phân kỳ của mô hình. Để giải quyết, nhóm đã phát triển và mở mã nguồn bộ tối ưu MuonClip, sử dụng phương pháp lặp Newton-Schulz kết hợp cơ chế QK-Clip, vừa hoàn toàn giải quyết vấn đề Logits bùng nổ, vừa đạt hiệu quả tính toán gấp đôi so với AdamW truyền thống.
Về cơ chế chú ý toàn phần (Full Attention) ra đời từ năm 2017, Yang Zhilin trình bày về Kimi Linear dựa trên kiến trúc KDA. Đây là một kiến trúc chú ý tuyến tính lai, thách thức quy tắc “mọi lớp đều phải dùng chú ý toàn phần”, bằng cách tối ưu quản lý lưu trữ đệ quy, trong các ngữ cảnh dài tới 128K hoặc thậm chí 1 triệu, tốc độ giải mã đã tăng gấp 5 đến 6 lần, đồng thời duy trì hiệu suất xuất sắc trong các kịch bản có độ dài khác nhau.
Ngoài ra, đối với kết nối dư thừa đã tồn tại hơn mười năm, Kimi đã giới thiệu giải pháp Attention Residuals, thay thế phép cộng cố định truyền thống bằng chú ý Softmax trên đầu ra của các lớp trước, giải quyết vấn đề trạng thái ẩn tăng không giới hạn theo chiều sâu, làm giảm đóng góp của các lớp sâu hơn. Nhờ đó, mỗi lớp có thể chọn lọc hợp nhất thông tin dựa trên nội dung đầu vào. Công trình này đã khiến cựu đồng sáng lập OpenAI, Karpathy, suy nghĩ lại và thẳng thắn nhận xét rằng chúng ta vẫn chưa hiểu đủ về bài báo Transformer gốc “Attention is All You Need”. Elon Musk, sáng lập xAI, cũng bình luận rằng công trình của Kimi rất ấn tượng.
Trong lĩnh vực nghiên cứu đa mô thức, Yang Zhilin chia sẻ một quan sát quan trọng: trong huấn luyện liên kết hình ảnh và văn bản nguyên bản, học tăng cường thị giác (Vision RL) có thể cải thiện rõ rệt hiệu suất của văn bản. Các thử nghiệm loại bỏ cho thấy, sau khi huấn luyện bằng Vision RL, mô hình đã nâng cao khoảng 2.1% trên các bài kiểm tra chuẩn như MMLU-Pro và GPQA-Diamond, cho thấy khả năng suy luận không gian và logic hình ảnh có thể chuyển hóa thành năng lực nhận thức chung sâu hơn.
Cuối bài phát biểu, Yang Zhilin đi sâu vào mở rộng tập hợp các tác nhân. Ông cho rằng hình thái trí tuệ trong tương lai sẽ tiến hóa từ đơn lẻ sang các tập hợp động được tạo ra theo thời gian. Cơ chế Orchestrator của Kimi K2.5 cho phép phân chia các nhiệm vụ phức tạp dài thành hàng chục tác nhân con xử lý song song. Để tránh phụ thuộc đơn điểm gây ra “ sụp đổ theo chuỗi” trong quá trình hợp tác, nhóm đã thiết kế một hàm thưởng RL song song hoàn toàn mới, khuyến khích mô hình thực sự học cách phân chia nhiệm vụ và thực thi song song.
Trong phần tổng kết, Yang Zhilin đề cập đến sự chuyển đổi trong phương pháp nghiên cứu AI. Ông nói rằng, cách đây mười năm, các nghiên cứu thường tập trung hơn vào việc công bố các ý tưởng mới, nhưng do hạn chế về tài nguyên tính toán, rất khó để xác minh các ý tưởng này qua các thử nghiệm quy mô khác nhau. Hiện nay, với đủ nguồn lực và “Thang đo Phóng To (Scaling Ladder)”, các nhà nghiên cứu có thể tiến hành các thử nghiệm quy mô nghiêm ngặt hơn, từ đó rút ra các kết luận tự tin và đáng tin cậy hơn. Đây chính là lý do tại sao Kimi có thể khai thác các công nghệ “cổ xưa” để đạt được những đột phá mới. Kimi sẽ tiếp tục theo đuổi con đường mở mã nguồn, đóng góp các sáng tạo nền tảng như MuonClip, Kimi Linear và Attention Residuals cho cộng đồng mã nguồn mở, xây dựng các mô hình mạnh mẽ hơn, thúc đẩy công nghệ trí tuệ nhân tạo phổ cập. (Văn Mẫn)