Viết sau hội nghị GTC, liệu Web3 có giải quyết được bài toán sức mạnh tính toán AI eo hẹp?

Tác giả: Zuo Ye

Thời trang có tính chu kỳ và Web 3 cũng vậy.

Near “re” đã trở thành một chuỗi công khai AI. Với tư cách là một trong những người sáng lập Transformer, anh ấy đã có thể tham dự hội nghị Nvidia GTC và nói chuyện với Lão Hoàng mặc áo da về tương lai của AI có khả năng sinh sản. Solana đã biến đổi thành công như một cuộc tụ họp nơi dành cho io.net, Bittensor và Render Network. Đối với chuỗi khái niệm AI, cũng có những người chơi mới nổi tham gia vào lĩnh vực điện toán GPU như Akash, GAIMIN và Gensyn.

Nếu chúng ta nâng cao tầm nhìn của mình trong khi giá tiền tệ đang tăng, chúng ta có thể tìm thấy một số sự thật thú vị:

  1. Cuộc chiến sức mạnh tính toán GPU đã đến với nền tảng phi tập trung. Sức mạnh tính toán càng nhiều, hiệu ứng tính toán càng mạnh. CPU, bộ lưu trữ và GPU gắn liền với nhau;
  2. Mô hình điện toán đang chuyển đổi từ đám mây hóa sang phi tập trung. Đằng sau đó là sự thay đổi về nhu cầu từ đào tạo AI sang lý luận. Các mô hình trên chuỗi không còn là lời nói suông;
  3. **Thành phần phần mềm và phần cứng cơ bản cũng như logic vận hành của kiến trúc Internet về cơ bản không thay đổi và lớp sức mạnh tính toán phi tập trung đóng vai trò nhiều hơn trong việc kích thích kết nối mạng. **

Trước tiên, hãy phân biệt về mặt khái niệm. Sức mạnh điện toán đám mây trong thế giới Web3 ra đời trong thời đại khai thác trên nền tảng đám mây. Nó đề cập đến việc đóng gói và bán sức mạnh tính toán của các máy khai thác, loại bỏ khoản chi phí khổng lồ của người dùng để mua máy khai thác. các nhà sản xuất điện thường “bán quá mức”, chẳng hạn như Trộn và bán sức mạnh tính toán của 100 máy khai thác cho 105 người để thu được lợi nhuận vượt mức cuối cùng khiến thuật ngữ này tương đương với một lời nói dối.

Sức mạnh điện toán đám mây trong bài viết này đề cập cụ thể đến tài nguyên điện toán của các nhà cung cấp đám mây dựa trên GPU. Câu hỏi ở đây là liệu nền tảng sức mạnh tính toán phi tập trung là con rối phía trước của nhà cung cấp đám mây hay là bản cập nhật phiên bản tiếp theo.

Sự tích hợp giữa các nhà cung cấp đám mây truyền thống và blockchain sâu hơn chúng ta tưởng tượng. Ví dụ, các nút chuỗi công cộng, quá trình phát triển và lưu trữ hàng ngày về cơ bản sẽ xoay quanh AWS, Alibaba Cloud và Huawei Cloud, loại bỏ khoản đầu tư tốn kém khi mua phần cứng vật lý. gây ra không thể bỏ qua, trong trường hợp cực đoan, việc rút cáp mạng sẽ khiến public chain bị sập, vi phạm nghiêm trọng tinh thần phân cấp.

Mặt khác, các nền tảng sức mạnh tính toán phi tập trung hoặc trực tiếp xây dựng “phòng máy tính” để duy trì sự ổn định của mạng hoặc trực tiếp xây dựng các mạng khuyến khích, chẳng hạn như chiến lược airdrop của IO.NET để thúc đẩy số lượng GPU và bộ lưu trữ của Filecoin để gửi mã thông báo FIL. điểm khởi đầu không phải là đáp ứng nhu cầu sử dụng mà là trao quyền cho các token. Một bằng chứng là các nhà sản xuất, cá nhân hoặc tổ chức học thuật lớn hiếm khi thực sự sử dụng chúng cho mục đích đào tạo ML, lý luận hoặc kết xuất đồ họa, dẫn đến lãng phí tài nguyên nghiêm trọng.

**Chỉ là trước tình hình giá tiền tệ tăng cao và tâm lý FOMO, mọi cáo buộc cho rằng sức mạnh tính toán phi tập trung là một trò lừa đảo sức mạnh điện toán đám mây đã biến mất. **

Viết sau hội nghị GTC, liệu Web3 có thể giải quyết được bài toán sức mạnh tính toán AI eo hẹp?

Hai loại sức mạnh tính toán có trùng tên và may mắn không?

Suy luận và FLOPS, định lượng sức mạnh tính toán của GPU

**Yêu cầu về sức mạnh tính toán của các mô hình AI đang phát triển từ đào tạo sang suy luận. **

Hãy lấy Sora của OpenAI làm ví dụ, mặc dù nó cũng được sản xuất dựa trên công nghệ Transformer nhưng kích thước thông số của nó được so sánh với hàng nghìn tỷ của GPT-4, giới học thuật suy đoán rằng nó dưới hàng trăm tỷ, Yang Likun thậm chí còn nói rằng đó là chỉ 3 tỷ, tức là đào tạo Chi phí thấp, cũng rất dễ hiểu, tài nguyên tính toán cần thiết cho một số lượng nhỏ các tham số cũng bị suy giảm tương ứng.

Nhưng đổi lại, Sora có thể cần khả năng “lý luận” mạnh mẽ hơn. Lý luận có thể được hiểu là khả năng tạo ra các video cụ thể theo hướng dẫn. Video từ lâu đã được coi là nội dung sáng tạo nên đòi hỏi khả năng hiểu AI mạnh hơn và việc đào tạo tương đối đơn giản Có thể hiểu là việc tóm tắt các quy tắc dựa trên nội dung hiện có, xếp chồng sức mạnh tính toán không cần não và làm việc chăm chỉ để tạo ra những điều kỳ diệu.

Trước đây, sức mạnh tính toán AI chủ yếu được sử dụng cho đào tạo, một lượng nhỏ dùng cho khả năng suy luận và về cơ bản được bao phủ bởi nhiều sản phẩm khác nhau của NVIDIA. Tuy nhiên, sau sự ra đời của Groq LPU (Bộ xử lý ngôn ngữ), mọi thứ bắt đầu thay đổi, và khả năng suy luận tốt hơn, các mô hình lớn được xếp chồng lên nhau để thu gọn và cải thiện độ chính xác, cũng như việc sử dụng bộ não để nói logic đang dần trở thành xu hướng chủ đạo.

Ngoài ra, tôi xin bổ sung thêm cách phân loại GPU, người ta thường thấy chính người chơi game cứu AI, điều hợp lý là nhu cầu mạnh mẽ về GPU hiệu suất cao trên thị trường game bao gồm cả hoạt động nghiên cứu và phát triển. Ví dụ: card đồ họa 4090, những người chơi game và thuật giả kim AI có thể sử dụng được, nhưng cần lưu ý rằng thẻ game và thẻ máy tính sẽ dần được tách rời. Quá trình này tương tự như sự phát triển của máy khai thác Bitcoin từ máy tính cá nhân đến máy khai thác chuyên dụng và các chip được sử dụng cũng tuân theo thứ tự từ CPU, GPU, FPGA và ASIC.

Viết sau hội nghị GTC, liệu Web3 có thể giải quyết được bài toán sức mạnh tính toán AI eo hẹp?Thẻ đặc biệt LLM đang được phát triển…

Khi công nghệ AI, đặc biệt là lộ trình LLM trưởng thành và phát triển, sẽ ngày càng có nhiều nỗ lực tương tự đối với TPU, DPU và LPU. Tất nhiên, sản phẩm chính hiện tại là GPU của NVIDIA. Tất cả các cuộc thảo luận dưới đây cũng dựa trên GPU và LPU Chờ đợi thêm là sự bổ sung cho GPU và sẽ mất một thời gian để thay thế hoàn toàn.

**Cuộc cạnh tranh sức mạnh tính toán phi tập trung không cạnh tranh về các kênh mua lại GPU mà cố gắng thiết lập một mô hình lợi nhuận mới. **

Tại thời điểm viết bài này, NVIDIA gần như đã trở thành nhân vật chính, về cơ bản, NVIDIA chiếm 80% thị trường card đồ họa, tranh chấp giữa card N và card A chỉ tồn tại trên lý thuyết, trên thực tế thì mọi người đều đang nói về tính chính trực.

Sự độc quyền tuyệt đối đã tạo ra sự cạnh tranh khốc liệt về GPU, từ RTX 4090 cấp độ người tiêu dùng đến A100/H100 cấp doanh nghiệp và các nhà cung cấp đám mây khác nhau là lực lượng chính trong việc tích trữ. Tuy nhiên, các công ty liên quan đến AI như Google, Meta, Tesla và OpenAI đều có hành động hoặc kế hoạch sản xuất chip tự sản xuất, còn các công ty trong nước đã chuyển hướng sang các nhà sản xuất trong nước như Huawei, và đường đua GPU vẫn vô cùng đông đúc.

Đối với các nhà cung cấp đám mây truyền thống, thứ họ bán thực chất là sức mạnh tính toán và dung lượng lưu trữ, nên việc có sử dụng chip của riêng họ hay không không cấp bách như các công ty AI. so với đám mây truyền thống Các nhà sản xuất đang cạnh tranh kinh doanh năng lượng điện toán, tập trung vào sức mạnh tính toán giá rẻ và dễ kiếm, tuy nhiên, giống như việc khai thác Bitcoin trong tương lai, khả năng chip Web3 AI xuất hiện là rất ít.

Một nhận xét bổ sung, kể từ khi Ethereum chuyển sang PoS, phần cứng chuyên dụng trong vòng tròn tiền tệ ngày càng ít đi, các thị trường như điện thoại di động Saga, tăng tốc phần cứng ZK và DePIN quá nhỏ. Tôi hy vọng rằng sức mạnh tính toán phi tập trung có thể được khám phá cho Card sức mạnh tính toán AI chuyên dụng, tạo lối đi riêng cho Web3.

**Sức mạnh tính toán phi tập trung là bước tiếp theo hoặc phần bổ sung cho đám mây. **

Sức mạnh tính toán của GPU thường được so sánh trong ngành với FLOPS (Hoạt động dấu phẩy động mỗi giây), đây là chỉ số được sử dụng phổ biến nhất để đo tốc độ tính toán. Bất kể thông số kỹ thuật của GPU hay các biện pháp tối ưu hóa như song song ứng dụng, cuối cùng nó vẫn là dựa trên FLOPS ở mức cao và thấp.

Đã mất khoảng nửa thế kỷ từ tính toán cục bộ đến chuyển sang đám mây và khái niệm phân phối đã tồn tại kể từ khi máy tính ra đời. Được thúc đẩy bởi LLM, sự kết hợp giữa phân cấp và sức mạnh tính toán không còn mơ hồ như trước nữa. Tôi sẽ làm như vậy Tóm tắt càng nhiều dự án sức mạnh điện toán phi tập trung hiện có càng tốt, chỉ với hai khía cạnh:

  1. Số lượng phần cứng như GPU, tức là tốc độ tính toán. Theo Định luật Moore, GPU càng mới thì sức mạnh tính toán càng mạnh, số lượng GPU có cùng thông số kỹ thuật càng nhiều thì sức mạnh tính toán càng mạnh;
  2. Phương pháp tổ chức lớp khuyến khích, là đặc điểm ngành của Web3. Mã thông báo kép, chức năng quản trị bổ sung, khuyến khích airdrop, v.v. giúp bạn dễ dàng hiểu được giá trị lâu dài của từng dự án hơn là chú ý quá nhiều đến ngắn hạn giá tiền tệ dài hạn. Về lâu dài, chỉ xem bạn có thể sở hữu hay không hoặc có bao nhiêu GPU để lên lịch.

Từ góc độ này, sức mạnh tính toán phi tập trung vẫn là lộ trình DePIN dựa trên “phần cứng + mạng khuyến khích hiện có”, hoặc kiến trúc Internet vẫn là lớp dưới cùng và lớp sức mạnh tính toán phi tập trung là khả năng kiếm tiền sau “ảo hóa phần cứng”, tập trung vào truy cập mà không được phép. Mạng thực sự vẫn cần có sự hợp tác của phần cứng.

Sức mạnh tính toán phải được phân cấp và GPU phải được tập trung.

Với sự trợ giúp của khuôn khổ bộ ba bất khả thi blockchain, tính bảo mật của sức mạnh tính toán phi tập trung không cần phải được xem xét đặc biệt. Vấn đề chính là sự phân cấp và khả năng mở rộng. Sau này là mục đích của mạng GPU, hiện đang đi đầu trong AI. .

Bắt đầu từ một nghịch lý, nếu muốn hoàn thành dự án sức mạnh tính toán phi tập trung thì số lượng GPU trên mạng phải càng lớn càng tốt, không có lý do nào khác, thông số của các mô hình lớn như GPT đang bùng nổ, và có không có GPU ở quy mô nhất định. Không thể có hiệu ứng đào tạo hoặc suy luận.

Tất nhiên, so với sự kiểm soát tuyệt đối của các nhà cung cấp đám mây, ở giai đoạn hiện tại, các dự án sức mạnh tính toán phi tập trung ít nhất có thể thiết lập các cơ chế như không có quyền truy cập và di chuyển tự do tài nguyên GPU. là một nhóm khai thác tương tự trong tương lai? Sản phẩm có thể không giống nhau.

Xét về khả năng mở rộng, GPU không chỉ có thể được sử dụng cho AI mà điện toán đám mây và kết xuất cũng là những con đường khả thi.Ví dụ, Render Network tập trung vào công việc kết xuất, trong khi Bittensor và những người khác tập trung vào việc cung cấp đào tạo mô hình. khả năng mở rộng tương đương với các kịch bản và mục đích sử dụng.

Do đó, hai tham số bổ sung có thể được thêm vào GPU và mạng khuyến khích, đó là tính phân cấp và khả năng mở rộng, để tạo thành chỉ báo so sánh từ bốn góc độ. Xin lưu ý rằng phương pháp này khác với so sánh kỹ thuật và hoàn toàn chỉ là một bức tranh.

Mạng khuyến khích số lượng GPU dự án khả năng mở rộng phi tập trung Gensyn mã thông báo không báo trước + cơ chế xác minh để đánh giá đào tạo và suy luận AI sau khi khởi chạy Mạng kết xuất 12.000 GPU + 503 mã thông báo CPU + nền tảng khuyến khích bổ sung + đề xuất + kết xuất nguồn mở + đào tạo AI Akash 20.000 CPU + 262 mã thông báo GPU + cam kết mã thông báo hệ thống đang lưu hành đầy đủ Suy luận AI io.net 180.000 GPU + 28.000 CPUGPU để đổi lấy tiền xu chưa phát hành suy luận AI + đào tạo.

Trong các dự án nêu trên, Render Network thực sự rất đặc biệt, về bản chất nó là một mạng kết xuất phân tán và mối quan hệ của nó với AI không trực tiếp. , Các thuật toán như Giảm dần độ dốc ngẫu nhiên) hoặc truyền ngược yêu cầu tính nhất quán, nhưng kết xuất và các tác vụ khác không nhất thiết phải như vậy. Video và hình ảnh thường được phân đoạn để tạo điều kiện phân phối nhiệm vụ.

Khả năng đào tạo AI của nó chủ yếu được tích hợp với io.net và tồn tại dưới dạng plug-in của io.net. Dù sao thì GPU vẫn hoạt động, dù có khó khăn đến đâu, điều đáng mong chờ hơn là việc nó chuyển sang Solana vào thời điểm đó. khoảnh khắc bị đánh giá thấp. , Sau đó người ta đã chứng minh rằng Solana phù hợp hơn với các yêu cầu hiệu suất cao của kết xuất và các mạng khác.

Thứ hai là lộ trình phát triển quy mô của io.net về việc thay thế GPU bạo lực. Hiện tại, trang web chính thức liệt kê đầy đủ 180.000 GPU. Nó nằm ở cấp độ đầu tiên của dự án sức mạnh tính toán phi tập trung. Có một mức độ chênh lệch lớn so với các đối thủ khác, và Về khả năng mở rộng, io.net tập trung vào lý luận AI và đào tạo AI là cách làm việc thực hành.

Nói một cách chính xác, đào tạo AI không phù hợp để triển khai phân tán, ngay cả đối với LLM nhẹ, số lượng tham số tuyệt đối sẽ không ít hơn nhiều.Phương pháp tính toán tập trung sẽ tiết kiệm chi phí hơn về mặt chi phí kinh tế.Web 3 và Điểm tích hợp của AI trong đào tạo thiên về các hoạt động mã hóa và bảo mật dữ liệu nhiều hơn, chẳng hạn như công nghệ ZK và FHE, đồng thời AI suy luận Web 3 có tiềm năng lớn, một mặt nó có yêu cầu tương đối thấp về hiệu suất tính toán GPU và có thể chịu được một mức độ mất mát nhất định. Mặt khác, lý luận AI gần với khía cạnh ứng dụng hơn và các ưu đãi từ góc độ người dùng là đáng kể hơn.

Filecoin, một công ty khác khai thác và trao đổi mã thông báo, cũng đã đạt được thỏa thuận sử dụng GPU với io.net. Filecoin sẽ sử dụng song song 1.000 GPU và io.net của mình. Đây có thể coi là nỗ lực chung giữa những người đi trước. Chúc các bạn cả hai đều may mắn.

Tiếp theo là Gensyn, chưa ra mắt, chúng tôi cũng lên cloud để đánh giá, vì vẫn đang trong giai đoạn đầu xây dựng mạng nên số lượng GPU chưa được công bố. Tuy nhiên, kịch bản sử dụng chính của nó là đào tạo AI Cá nhân tôi cảm thấy số lượng GPU hiệu suất cao không hề nhỏ, ít nhất là vượt xa cấp độ của Render Network. So với AI suy luận, đào tạo AI có mối quan hệ cạnh tranh trực tiếp với các nhà cung cấp đám mây và việc thiết kế cơ chế cụ thể sẽ được phức tạp hơn.

Cụ thể, Gensyn cần đảm bảo tính hiệu quả của việc đào tạo mô hình, đồng thời, để nâng cao hiệu quả đào tạo, nó sử dụng các mô hình điện toán off-chain trên quy mô lớn, do đó, hệ thống xác minh mô hình và chống gian lận đòi hỏi vai trò của nhiều bên. Trò chơi:

  • Người gửi: Người khởi xướng nhiệm vụ, người cuối cùng sẽ thanh toán chi phí đào tạo.
  • Người giải: đào tạo mô hình và cung cấp bằng chứng về tính hiệu quả.
  • Người xác minh: Xác minh tính hợp lệ của mô hình.
  • Người tố cáo: Kiểm tra công việc của người xác thực.

Nhìn chung, phương thức hoạt động tương tự như cơ chế khai thác PoW + bằng chứng lạc quan. Kiến trúc rất phức tạp. Có thể việc chuyển các tính toán sang off-chain có thể tiết kiệm chi phí, nhưng sự phức tạp của kiến trúc sẽ mang lại thêm chi phí vận hành. Hiện tại, tính phi tập trung chính sức mạnh tính toán Tập trung vào thời điểm lý luận AI, tôi cũng chúc Gensyn may mắn.

Cuối cùng là Akash cũ, người về cơ bản đã bắt đầu cùng với Render Network. Akash tập trung vào việc phân cấp CPU và Render Network là người đầu tiên tập trung vào việc phân cấp GPU. Không ngờ, sau khi AI bùng nổ, cả hai bên đều bước vào cuộc chiến lĩnh vực điện toán GPU + AI.Sự khác biệt Akash quan tâm nhiều hơn đến khả năng suy luận.

Chìa khóa cho sự trẻ hóa của Akash là quan tâm đến các vấn đề khai thác sau khi nâng cấp Ethereum. GPU nhàn rỗi không chỉ được các nữ sinh viên đại học sử dụng làm đồ cũ cho mục đích cá nhân mà giờ đây họ còn có thể cùng nhau làm việc trên AI. tất cả họ đều đang đóng góp cho nền văn minh nhân loại.

Tuy nhiên, một điều tốt về Akash là về cơ bản các mã thông báo đã được lưu hành đầy đủ. Xét cho cùng, đây là một dự án rất cũ và nó cũng tích cực áp dụng hệ thống đặt cược thường được sử dụng trong PoS. Tuy nhiên, nhóm dường như theo đạo Phật hơn và họ không trẻ trung như io.net.

Ngoài ra, còn có THETA dành cho điện toán đám mây biên, Phoenix cung cấp các giải pháp thích hợp cho sức mạnh tính toán AI, các công ty điện toán cũ và mới như Bittensor và Ritual. thực sự khó tìm Ít hơn số lượng GPU và các thông số khác.

Phần kết luận

Trong suốt lịch sử phát triển của máy tính, các phiên bản phi tập trung của nhiều mô hình điện toán khác nhau có thể được xây dựng. Điều đáng tiếc duy nhất là chúng không có tác động đến các ứng dụng chính thống. Dự án điện toán Web3 hiện tại chủ yếu là tự quảng bá trong ngành. Người sáng lập Near đã đi đến hội nghị GTC Đó cũng là do quyền tác giả của Transformer chứ không phải tư cách người sáng lập của Near.

Điều bi quan hơn nữa là quy mô thị trường điện toán đám mây hiện tại và những người chơi quá mạnh. Liệu io.net có thể thay thế AWS? Nếu có đủ GPU thì thực sự có thể. Suy cho cùng, AWS từ lâu đã sử dụng Redis mã nguồn mở làm nền tảng thành phần.

Ở một khía cạnh nào đó, sức mạnh của nguồn mở và sự phân quyền không bằng nhau. Các dự án phi tập trung tập trung quá mức vào các lĩnh vực tài chính như DeFi và AI có thể là con đường then chốt để thâm nhập thị trường phổ thông.

người giới thiệu:

_2024-03-06_Ai.pdf

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim