Microsoft Azure Data Center dự đoán trước, tích hợp toàn diện kiến trúc tính toán thế hệ tiếp theo của NVIDIA

Tại triển lãm điện tử tiêu dùng (CES) năm 2026, nền tảng NVIDIA Rubin đã chính thức ra mắt, đồng thời với khả năng triển khai sẵn sàng của Microsoft Azure (phiên bản quốc tế) cũng được thể hiện và xác minh. Chiến lược trung tâm dữ liệu tiên phong của Microsoft được thiết kế cho những thời điểm như thế này, cho phép hệ thống thế hệ tiếp theo của NVIDIA có thể được tích hợp trực tiếp vào cơ sở hạ tầng của chúng tôi. Từ nhiều năm trước, chúng tôi đã dự đoán trước xu hướng ngành, giúp cơ sở hạ tầng đáp ứng trước nhu cầu về điện, làm mát, bộ nhớ và mạng. Sự hợp tác lâu dài của chúng tôi với NVIDIA đảm bảo rằng Rubin có thể được tích hợp trực tiếp vào thiết kế nền tảng tiên phong của Microsoft Azure (phiên bản quốc tế).

01

Được thiết kế cho tương lai

Trung tâm dữ liệu AI của Microsoft Azure (phiên bản quốc tế) được thiết kế đặc biệt để tăng tốc cho tương lai của tính toán. Điều này cho phép giá đỡ NVIDIA Vera Rubin NVL72 được tích hợp liền mạch vào nhà máy AI thế hệ tiếp theo lớn nhất của Microsoft Azure (phiên bản quốc tế), từ Wisconsin đến Atlanta, bất kể là các địa điểm Fairwater hiện có hay các dự án mới trong tương lai, đều có thể hỗ trợ tính năng này.

Cơ sở hạ tầng AI mới nhất của NVIDIA yêu cầu nâng cấp đáng kể về điện, làm mát và tối ưu hóa hiệu suất, và kinh nghiệm tích lũy tại các địa điểm Fairwater của Microsoft Azure (phiên bản quốc tế) trong nhiều chu kỳ nâng cấp cho thấy chúng tôi có khả năng linh hoạt tăng cường và mở rộng cơ sở hạ tầng công nghệ AI theo sự tiến bộ của công nghệ.

02

Trưởng thành hơn

Quy mô và hiệu suất giao hàng của Azure

Microsoft có nhiều năm kinh nghiệm trong thiết kế và triển khai cơ sở hạ tầng AI có thể mở rộng, và đã được thị trường xác minh rộng rãi. Với mỗi bước tiến quan trọng trong công nghệ AI, các cơ sở hạ tầng này cũng đang tiến hóa. Bằng cách duy trì đồng bộ với mỗi thế hệ cơ sở hạ tầng tính toán tăng tốc của NVIDIA, Microsoft cũng đang nhanh chóng tích hợp công nghệ đổi mới của NVIDIA và thực hiện giao hàng quy mô lớn.

Chúng tôi đã đóng vai trò quan trọng trong việc ươm tạo và ra mắt các mô hình như GPT-3.5 thông qua việc triển khai quy mô lớn ban đầu của GPU NVIDIA Ampere và Hopper, kết nối qua mạng NVIDIA Quantum-2 InfiniBand, và các cụm khác đã tạo ra kỷ lục hiệu suất siêu tính toán, chứng minh rằng, so với các công ty khác, chúng tôi có thể đưa hệ thống thế hệ tiếp theo vào hoạt động nhanh hơn và đạt hiệu suất thực tế cao hơn.

Chúng tôi đã trình bày việc triển khai đầu tiên và quy mô lớn nhất của nền tảng NVIDIA GB200 NVL72 và NVIDIA GB300 NVL72, những nền tảng này tích hợp thành một siêu máy tính duy nhất theo dạng giá đỡ, có thể nâng cao đáng kể tốc độ đào tạo mô hình AI, giúp Microsoft Azure (phiên bản quốc tế) luôn là lựa chọn hàng đầu cho các khách hàng tìm kiếm khả năng công nghệ AI tiên tiến.

03

Cách tiếp cận hệ thống của Azure

Thiết kế của Microsoft Azure (phiên bản quốc tế) nhằm mục đích cho phép tính toán, mạng, lưu trữ, phần mềm và cơ sở hạ tầng hoạt động cùng nhau như một nền tảng tích hợp. Lợi thế bền vững mà nó xây dựng đã đạt được những bước đột phá liên tục trong chi phí và hiệu suất theo thời gian.

Tối đa hóa việc sử dụng GPU yêu cầu tối ưu hóa từng lớp trong hệ thống này. Ngoài việc Microsoft Azure (phiên bản quốc tế) có khả năng áp dụng sớm nền tảng tính toán tăng tốc mới của NVIDIA, lợi thế của Microsoft Azure (phiên bản quốc tế) cũng đến từ các nền tảng xung quanh, chẳng hạn như lưu trữ Blob có thông lượng cao, Nhóm Đặt gần (Proximity Placement Groups) bị ảnh hưởng bởi mô hình sản xuất thực tế và thiết kế cấp khu vực, cũng như các lớp điều phối như CycleCloud và AKS được tối ưu hóa cho việc lập lịch với chi phí thấp cho các cụm quy mô lớn.

Azure Boost và các động cơ giải phóng khác đã giải quyết các nút cổ chai IO, mạng và lưu trữ, giúp các mô hình có thể mở rộng một cách mượt mà. Lưu trữ nhanh hơn cung cấp cho các cụm lớn hơn, mạng mạnh mẽ duy trì hoạt động của chúng, trong khi việc lập lịch tối ưu giữ cho hiệu suất đầu cuối ổn định. Đổi mới từ bên trong củng cố vòng kết nối này: các đơn vị trao đổi nhiệt lỏng có thể đáp ứng các yêu cầu làm mát khắt khe, chip mô-đun bảo mật phần cứng Azure (HSM) giải phóng các tác vụ bảo mật, trong khi Azure Cobalt cung cấp hiệu suất và hiệu quả vượt trội cho các tác vụ tính toán tổng quát và AI. Những tích hợp này cùng nhau đảm bảo khả năng mở rộng hiệu quả của toàn bộ hệ thống, tối đa hóa giá trị đầu tư vào GPU.

Với cách tiếp cận hệ thống này, Microsoft Azure (phiên bản quốc tế) đã hoàn toàn tích hợp nền tảng Rubin. Các hệ thống và nền tảng đầu cuối mà chúng tôi đang giao hàng đã được thiết kế từ ban đầu để phù hợp chính xác với các yêu cầu kỹ thuật của Rubin.

04

Vận hành nền tảng NVIDIA Rubin

Siêu chip NVIDIA Vera Rubin sẽ cung cấp hiệu suất suy diễn NVFP4 50 PF mỗi chip, cũng như hiệu suất NVFP4 3.6 EF mỗi giá đỡ, đạt được bước nhảy vọt về hiệu suất gấp năm lần so với hệ thống giá đỡ NVIDIA GB200 NVL72.

Microsoft Azure (phiên bản quốc tế) hiện đã bao gồm các giả định kiến trúc cốt lõi cần thiết cho Rubin:

Tiến hóa của NVIDIA NVLink: Băng thông liên kết của NVIDIA NVLink thế hệ thứ sáu dự kiến trong hệ thống Vera Rubin NVL72 đạt khoảng 260 TB/s, kiến trúc giá đỡ của Microsoft Azure (phiên bản quốc tế) đã được thiết kế lại để tối đa hóa những lợi thế về băng thông và topo này.

Mạng mở rộng ngang hiệu suất cao: Cơ sở hạ tầng AI Rubin dựa trên mạng NVIDIA ConnectX-9 1.600 Gb/s siêu nhanh do cơ sở hạ tầng mạng Microsoft Azure (phiên bản quốc tế) cung cấp, được xây dựng để hỗ trợ các khối lượng công việc AI quy mô lớn.

Kế hoạch làm mát và mật độ HBM4/HBM4e: Đống bộ nhớ Rubin cần có khoảng nhiệt độ kiểm soát hẹp hơn và mật độ giá đỡ cao hơn; khả năng làm mát, phạm vi điện và cấu trúc hình học giá đỡ của Microsoft Azure (phiên bản quốc tế) đã hoàn tất việc nâng cấp để đáp ứng các ràng buộc tương tự.

Mở rộng bộ nhớ điều khiển bởi SOCAMM2: Siêu chip Rubin sử dụng kiến trúc mở rộng bộ nhớ mới; nền tảng Microsoft Azure (phiên bản quốc tế) đã tích hợp và xác minh hành vi mở rộng bộ nhớ tương tự để liên tục cung cấp dữ liệu cho các mô hình trong môi trường quy mô lớn.

Mở rộng kích thước chip GPU và đóng gói đa chip: Rubin chuyển sang không gian chiếm dụng GPU quy mô lớn hơn và bố trí đa chip. Chuỗi cung ứng, thiết kế cơ khí và lớp điều phối của Microsoft Azure (phiên bản quốc tế) đã được điều chỉnh trước cho các đặc điểm mở rộng vật lý và logic này.

Phương pháp thiết kế của Microsoft Azure (phiên bản quốc tế) khi phát triển các nền tảng tính toán tăng tốc thế hệ tiếp theo như Rubin đã được chứng minh trong nhiều năm, bao gồm các cột mốc quan trọng sau:

Vận hành triển khai InfiniBand thương mại lớn nhất toàn cầu trong nhiều thế hệ GPU.

Xây dựng các lớp độ tin cậy và công nghệ quản lý tắc nghẽn, giải phóng tỷ lệ sử dụng cụm cao hơn và quy mô nhiệm vụ lớn hơn so với các đối thủ cạnh tranh, điều này được thể hiện qua khả năng công bố các kết quả kiểm tra hiệu suất quy mô lớn hàng đầu trong ngành. Ví dụ, việc chạy MLPerf nhiều giá đỡ mà các đối thủ chưa bao giờ sao chép.

Thiết kế trung tâm dữ liệu AI hợp tác với Grace Blackwell và Vera Rubin từ nền tảng cơ sở, nhằm tối đa hóa hiệu suất và hiệu suất chi phí trên cấp độ cụm.

05

Thiết kế đổi mới

Giúp Azure nổi bật

Kiến trúc hoán đổi Pod: Để đạt được dịch vụ nhanh chóng, thiết kế khay máy chủ GPU của Microsoft Azure (phiên bản quốc tế) được thiết kế để có thể hoán đổi nhanh chóng mà không cần nhiều dây dẫn lại, từ đó nâng cao thời gian hoạt động.

Lớp trừu tượng làm mát: Các thành phần đa chip và băng thông cao của Rubin cần một lượng làm mát phức tạp, nhưng Fairwater đã có khả năng đối phó với thách thức này, tránh được các chu kỳ cải tạo tốn kém.

Thiết kế điện thế hệ tiếp theo: Vera Rubin NVL72 yêu cầu mật độ công suất ngày càng tăng, trong khi việc thiết kế lại điện của Microsoft Azure (phiên bản quốc tế) trong nhiều năm (sửa đổi chu trình làm mát lỏng, mở rộng CDU và thanh cái có dòng điện cao) đảm bảo khả năng triển khai ngay lập tức.

Nhà máy AI siêu hiện đại có tính mô-đun: Khác với các nhà cung cấp đám mây lớn khác, Microsoft xây dựng các siêu máy tính cấp khu vực thay vì một địa điểm khổng lồ duy nhất, điều này giúp việc ra mắt SKU mới trên toàn cầu trở nên dễ kiểm soát hơn.

06

Biến thiết kế hợp tác

thành lợi ích cho người dùng

Nền tảng NVIDIA Rubin đánh dấu một bước tiến quan trọng trong việc tăng tốc tính toán, trong khi trung tâm dữ liệu AI và nhà máy siêu hiện đại của Microsoft Azure (phiên bản quốc tế) đã hoàn tất thiết kế kỹ thuật để có thể tận dụng tối đa lợi thế này.

Sự thiết kế hợp tác trong nhiều năm về kết nối, hệ thống bộ nhớ, làm mát, đóng gói và kiến trúc quy mô giá đỡ với NVIDIA có nghĩa là NVIDIA Rubin có thể được tích hợp trực tiếp vào nền tảng Microsoft Azure (phiên bản quốc tế) mà không cần phải làm lại. Các giả định cốt lõi của NVIDIA Rubin cũng đã được phản ánh trong các nguyên tắc thiết kế mạng, điện, làm mát, điều phối và hoán đổi Pod của chúng tôi. Sự nhất quán này mang lại lợi ích tức thì cho khách hàng, cho phép họ triển khai nhanh hơn, mở rộng nhanh hơn và có tác động sớm hơn khi xây dựng kỷ nguyên AI quy mô lớn tiếp theo.

Nội dung được phát hành bởi tài khoản này đều là tác phẩm gốc của Microsoft hoặc được phát hành theo sự ủy quyền của chủ sở hữu quyền. Không có đơn vị hoặc cá nhân nào được phép sao chép, phát hành, truyền bá, thay đổi, dịch thuật hoặc biên soạn mà không có sự cho phép.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.27KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$2.37KNgười nắm giữ:2
    1.04%
  • Vốn hóa:$2.24KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.24KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Ghim