IOSG: Đi đến đâu là lối thoát cho cơ sở hạ tầng WEB3 + AI đồng nhất?

Tác giả: IOSG

TL;DR

Với sự kết hợp giữa Web3 và AI trở thành đề tài được chú ý trong thế giới mã hóa, cơ sở hạ tầng AI của thế giới mã hóa đang phát triển mạnh mẽ, nhưng thực tế, số lượng ứng dụng AI hoặc ứng dụng được xây dựng cho AI không nhiều, vấn đề đồng nhất hóa của cơ sở hạ tầng AI dần dần trở nên rõ ràng. Gần đây, việc tham gia vòng gọi vốn đầu tiên của RedPill đã gây ra một số hiểu biết sâu hơn.

Các công cụ chính để xây dựng AI Dapp bao gồm truy cập vào Phi tập trung OpenAI, mạng GPU, mạng suy luận và mạng đại diện.

Lý do tại sao mạng lưới GPU được coi là nóng hơn cả thời kỳ khai thác Bitcoin là bởi vì: thị trường trí tuệ nhân tạo lớn hơn và tăng lên nhanh chóng và ổn định; trí tuệ nhân tạo hỗ trợ hàng triệu ứng dụng mỗi ngày; trí tuệ nhân tạo cần nhiều kiểu máy chủ GPU đa dạng và vị trí; công nghệ đã trưởng thành hơn trong quá khứ; đối tượng khách hàng cũng rộng hơn.

Mạng suy luận và mạng ủy quyền có cơ sở hạ tầng tương tự nhưng tập trung vào các điểm khác nhau. Mạng suy luận chủ yếu được sử dụng bởi các nhà phát triển có kinh nghiệm để triển khai mô hình của họ, trong khi việc chạy mô hình không phải LLM không nhất thiết cần GPU. Mạng ủy quyền tập trung hơn vào LLM, nhà phát triển không cần phải có mô hình của họ, mà là tập trung hơn vào kỹ thuật gợi ý và cách kết nối các ủy quyền khác nhau. Mạng ủy quyền luôn cần có GPU hiệu suất cao.

Dự án cơ sở hạ tầng AI cam kết rất lớn và vẫn đang tiếp tục ra mắt các tính năng mới.

Đa số dự án mã hóa gốc vẫn đang ở giai đoạn Testnet, không ổn định, cấu hình phức tạp, hạn chế chức năng, vẫn cần thời gian để chứng minh tính an toàn và riêng tư của chúng.

Giả sử AI Dapp trở thành một xu hướng lớn, vẫn còn nhiều lĩnh vực chưa được phát triển, như giám sát, cơ sở hạ tầng liên quan đến RAG, mô hình nguyên bản Web3, API nguyên bản tích hợp mã hóa và dữ liệu, đại lý Phi tập trung, mạng đánh giá, v.v.

Vertical integration is a significant trend. Infrastructure projects aim to provide one-stop services to simplify the work of AI Dapp developers.

Tương lai sẽ là lai. Một phần của suy luận diễn ra trên giao diện người dùng, trong khi một phần được tính toán trên chuỗi và khi làm như vậy, nó tính đến các yếu tố chi phí và khả năng xác minh.

Nguồn: IOSG

Giới thiệu

Web3 và AI kết hợp là một trong những chủ đề đáng chú ý nhất trong lĩnh vực mã hóa hiện tại. Các nhà phát triển tài năng đang xây dựng cơ sở hạ tầng AI cho thế giới mã hóa, cam kết mang trí tuệ vào hợp đồng thông minh. Xây dựng AI Dapp là một nhiệm vụ rất phức tạp, nhà phát triển cần xử lý một loạt các phạm vi bao gồm dữ liệu, mô hình, sức mạnh tính toán, hoạt động, triển khai và tích hợp với blockchain.

Đối với những nhu cầu này, các nhà sáng lập Web3 đã phát triển nhiều giải pháp sơ bộ, chẳng hạn như mạng GPU, đánh dấu dữ liệu cộng đồng, mô hình được đào tạo bởi cộng đồng, suy luận và đào tạo AI có thể xác minh và cửa hàng đại lý. Tuy nhiên, trong bối cảnh cơ sở hạ tầng phát triển này, thực tế sử dụng AI hoặc các ứng dụng được xây dựng cho AI không nhiều.

Khi nhìn tìm hướng dẫn phát triển AI Dapp, nhà phát triển phát hiện rằng có rất ít hướng dẫn liên quan đến cơ sở hạ tầng mã hóa AI nguyên bản, hầu hết chỉ liên quan đến việc gọi API OpenAI ở phía trước.

Nguồn: IOSG Ventures

Ứng dụng hiện tại chưa thể tận dụng tối đa các tính năng tập trung Phi và xác thực của mã hóa blockchain, nhưng tình hình này sẽ thay đổi trong thời gian tới. Hiện nay, hệ thống cơ sở hạ tầng trí tuệ nhân tạo tập trung vào lĩnh vực mã hóa đã khởi động mạng thử nghiệm và dự định chính thức hoạt động trong vòng 6 tháng tới. Nghiên cứu này sẽ giới thiệu chi tiết các công cụ chính trong cơ sở hạ tầng trí tuệ nhân tạo liên quan đến mã hóa. Hãy sẵn sàng đón chờ thời điểm GPT-3.5 trong thế giới mã hóa!

  1. RedPill: Cung cấp ủy quyền Phi tập trung cho OpenAI

Những gì chúng tôi đã đề cập trước đó, việc đầu tư của chúng tôi vào RedPill là một điểm khởi đầu tốt. OpenAI có một số mô hình mạnh mẽ hàng đầu thế giới như GPT-4-vision, GPT-4-turbo và GPT-4o, là lựa chọn hàng đầu để xây dựng ứng dụng trí tuệ nhân tạo tiên tiến. Nhà phát triển có thể tích hợp chúng vào ứng dụng thông qua API của OpenAI thông qua Máy Oracle hoặc giao diện trước.

RedPill kết hợp các API OpenAI từ các nhà phát triển khác nhau vào một giao diện, cung cấp dịch vụ trí tuệ nhân tạo nhanh chóng, tiết kiệm và xác minh được cho người dùng trên toàn cầu, từ đó thực hiện việc dân chủ hóa tài nguyên mô hình trí tuệ nhân tạo hàng đầu. Thuật toán định tuyến của RedPill sẽ định tuyến yêu cầu của nhà phát triển đến người đóng góp duy nhất. Các yêu cầu API sẽ được thực thi thông qua mạng phân phối của nó, qua đó vượt qua bất kỳ hạn chế nào từ OpenAI có thể có, giải quyết một số vấn đề phổ biến mà các nhà phát triển mã hóa đang đối mặt, chẳng hạn như:

• Giới hạn TPM (Token mỗi phút): Tài khoản mới có giới hạn về việc sử dụng Token, không đáp ứng được nhu cầu của các Dapp phổ biến và phụ thuộc vào trí tuệ nhân tạo.

• Hạn chế truy cập: Một số mô hình đã thiết lập hạn chế truy cập đối với tài khoản mới hoặc một số quốc gia.

Bằng cách sử dụng cùng mã yêu cầu nhưng thay đổi tên máy chủ, nhà phát triển có thể truy cập vào mô hình OpenAI một cách tiết kiệm chi phí, mở rộng và không giới hạn.

  1. Mạng GPU

除了使用 OpenAI 的 API,许多开发人员还会选择自行在家中托管模型。他们可以依托Phi tập trung GPU 网络,如 io.net、Aethir、Akash 等流行的网络,自行建立 GPU 集群并部署及运行各种强大的内部或Mã nguồn mở模型。

Mạng GPU phi tập trung như vậy có thể sử dụng sức mạnh tính toán từ cá nhân hoặc trung tâm dữ liệu nhỏ để cung cấp cấu hình linh hoạt, lựa chọn nhiều vị trí máy chủ hơn và giảm chi phí, cho phép các nhà phát triển dễ dàng thực hiện các thử nghiệm liên quan đến trí tuệ nhân tạo trong ngân sách hạn chế. Tuy nhiên, do tính chất phi tập trung, mạng GPU như vậy vẫn có một số hạn chế về tính năng, khả dụng và quyền riêng tư dữ liệu.

Trong vài tháng qua, nhu cầu về GPU đã rất cao, vượt qua cơn sốt khai thác BTCKhai thác trước đây. Nguyên nhân của hiện tượng này bao gồm:

Số lượng khách hàng mục tiêu tăng lên, mạng lưới GPU hiện đang phục vụ các nhà phát triển trí tuệ nhân tạo (AI), không chỉ đông đảo mà còn trung thành hơn, không bị ảnh hưởng bởi biến động giá mã hóa.

So với thiết bị đặc thù Khai thác, GPU Phi tập trung cung cấp nhiều mô hình và cấu hình hơn, phù hợp hơn với yêu cầu. Đặc biệt là xử lý mô hình lớn đòi hỏi VRAM cao hơn, trong khi các nhiệm vụ nhỏ hơn có thể chọn GPU phù hợp hơn. Đồng thời, GPU Phi tập trung có thể phục vụ người dùng cuối gần hơn, Thả Trễ.

Công nghệ ngày càng trở nên chín chắn, mạng GPU phụ thuộc vào chuỗi Khối tốc độ cao như Solana Thanh toán , công nghệ ảo hóa Docker và cụm tính toán Ray.

Trong việc đầu tư, thị trường trí tuệ nhân tạo đang mở rộng, có nhiều cơ hội phát triển ứng dụng và mô hình mới, tỷ lệ lợi nhuận dự kiến của mô hình H100 là 60-70%, trong khi việc Khai thác Bitcoin thì phức tạp hơn, chỉ có người chiến thắng, và sản lượng hạn chế.

Các công ty khai thác như Iris Energy, Core Scientific và Bitdeer cũng đã bắt đầu hỗ trợ mạng GPU, cung cấp dịch vụ AI và tích cực mua GPU được thiết kế đặc biệt cho AI, như H100.

Đề xuất: Đối với những nhà phát triển Web2 không quá quan tâm đến SLA, io.net cung cấp trải nghiệm đơn giản và dễ sử dụng, là sự lựa chọn hiệu quả về mặt giá trị.

Đây là hạ tầng AI nguyên bản mã hóa. Nó sẽ hỗ trợ hàng tỷ lần hoạt động suy luận AI trong tương lai. Nhiều lớp AI layer1 hoặc layer2 cung cấp khả năng gọi suy luận AI nguyên bản trên chuỗi cho các nhà phát triển. Các nhà lãnh đạo thị trường bao gồm Ritual, Valence và Fetch.ai.

Các mạng này khác biệt với nhau ở các khía cạnh sau: hiệu suất (Trễ, thời gian tính toán) mô hình hỗ trợ có thể xác minh giá cả (chi phí tiêu thụ on-chain, chi phí suy luận) trải nghiệm phát triển.

3.1 Mục tiêu

Lý tưởng là, nhà phát triển có thể truy cập dịch vụ suy luận AI tùy chỉnh của họ một cách dễ dàng ở bất kỳ đâu, thông qua bất kỳ hình thức chứng minh nào mà không gặp phải gần như bất kỳ rào cản nào trong quá trình tích hợp. Mạng suy luận cung cấp đầy đủ hỗ trợ cơ bản mà nhà phát triển cần, bao gồm việc tạo ra theo nhu cầu và bằng chứng xác nhận, thực hiện tính toán suy luận, Chuyển tiếp và xác minh dữ liệu suy luận, cung cấp giao diện Web2 và Web3, triển khai mô hình một cách dễ dàng, theo dõi hệ thống, thực hiện Tương tác chuỗi chéo, tích hợp đồng bộ và thực hiện định kỳ, v.v.

Với những tính năng này, nhà phát triển có thể tích hợp dịch vụ suy luận vào Hợp đồng thông minh hiện có của họ. Ví dụ, khi xây dựng các robot giao dịch Tài chính phi tập trung, những robot này sẽ sử dụng các mô hình học máy để tìm kiếm thời điểm mua bán đối với các cặp giao dịch cụ thể và thực hiện các chiến lược giao dịch tương ứng trên nền tảng giao dịch cơ bản.

Trong trạng thái hoàn hảo, tất cả cơ sở hạ tầng đều được lưu trữ trên đám mây. Nhà phát triển chỉ cần tải lên mô hình chiến lược giao dịch của họ dưới định dạng chung như torch, mạng suy luận sẽ lưu trữ và cung cấp mô hình cho các truy vấn Web2 và Web3.

Sau khi hoàn thành tất cả các bước triển khai mô hình, các nhà phát triển có thể gọi trực tiếp qua API Web3 hoặc hợp đồng thông minh để triệu hồi suy luận mô hình. Mạng suy luận sẽ tiếp tục thực hiện các chiến lược giao dịch này và phản hồi kết quả cho hợp đồng thông minh cơ bản. Nếu quy mô quản lý quỹ cộng đồng của các nhà phát triển lớn, cần phải cung cấp xác minh kết quả suy luận. Ngay sau khi nhận kết quả suy luận, hợp đồng thông minh sẽ thực hiện giao dịch theo kết quả này.

3.1.1 Bất đồng bộ và Đồng bộ

Thuật toán rút gọn tự động có thể mang lại hiệu suất tốt hơn trong lý thuyết; tuy nhiên, cách tiếp cận này có thể gây khó khăn trong quá trình phát triển. Khi sử dụng cách tiếp cận không đồng bộ, nhà phát triển cần gửi công việc vào hợp đồng thông minh của mạng rút gọn. Sau khi công việc rút gọn hoàn thành, hợp đồng thông minh của mạng rút gọn sẽ trả kết quả. Trong mô hình lập trình này, logic được chia thành hai phần: gọi rút gọn và xử lý kết quả rút gọn.

Nếu nhà phát triển có cuộc gọi suy luận lồng ghép và nhiều logic điều khiển, tình hình sẽ trở nên tồi tệ hơn.

Mô hình lập trình bất đồng bộ làm cho việc tích hợp với hợp đồng thông minh hiện có trở nên khó khăn. Điều này đòi hỏi nhà phát triển phải viết thêm rất nhiều mã và xử lý lỗi cũng như quản lý mối quan hệ phụ thuộc. Ngược lại, lập trình đồng bộ dễ hiểu hơn đối với nhà phát triển, nhưng nó đặt ra vấn đề về thời gian phản hồi và thiết kế khối. Ví dụ, nếu dữ liệu đầu vào là dữ liệu thay đổi nhanh như thời gian khối hoặc giá cả, thì sau khi suy luận hoàn thành, dữ liệu đã không còn mới nữa, điều này có thể dẫn đến việc thực hiện hợp đồng thông minh trong một số trường hợp cụ thể cần phải Rollback. Hãy tưởng tượng bạn giao dịch với một giá cả đã cũ.

Hầu hết cơ sở hạ tầng AI sử dụng xử lý không đồng bộ, nhưng Valence đang cố gắng giải quyết những vấn đề này.

3.2 Tình hình thực tế

Trong thực tế, nhiều mạng suy luận mới vẫn đang ở giai đoạn thử nghiệm, như mạng Ritual. Theo tài liệu công khai của họ, các tính năng của mạng hiện tại còn hạn chế (như xác minh, chứng minh và các tính năng khác vẫn chưa được triển khai). Hiện họ chưa cung cấp cơ sở hạ tầng đám mây để hỗ trợ tính toán AI on-chain, mà thay vào đó cung cấp một khung để tự quản lý tính toán AI và truyền kết quả đến on-chain. Điều này là một kiến trúc mà AIGC Token không thể thay thế. Mô hình lan truyền tạo Token không thể thay thế và tải lên Arweave. Mạng suy luận sẽ sử dụng Địa chỉ Arweave này để đúc Token không thể thay thế vào on-chain.

Quá trình này rất phức tạp, các nhà phát triển cần triển khai và duy trì hầu hết cơ sở hạ tầng, như Ritual Nút với logic dịch vụ tùy chỉnh, Stable Diffusion Nút và Hợp đồng thông minh không thể thay thế Token。Gợi ý: Mạng suy luận hiện tại rất phức tạp trong việc tích hợp và triển khai mô hình tùy chỉnh, và ở giai đoạn này, hầu hết các mạng vẫn chưa hỗ trợ chức năng xác thực. Áp dụng công nghệ AI vào phía trước sẽ cung cấp cho nhà phát triển một lựa chọn tương đối đơn giản. Nếu bạn cần chức năng xác thực, Giza - nhà cung cấp ZKML là một lựa chọn tốt.

  1. Mạng đại lý

Mạng lưới đại lý cho phép người dùng dễ dàng tùy chỉnh đại lý. Mạng lưới này được tạo thành từ các thực thể có thể thực hiện các nhiệm vụ tự chủ, tương tác đám mây và tương tác với mạng lưới Blockchain hoặc hợp đồng thông minh, mà không cần can thiệp trực tiếp của con người. Nó chủ yếu hướng đến công nghệ LLM. Ví dụ, nó có thể cung cấp một robot trò chuyện GPT hiểu sâu về Ethereum. Công cụ này hiện tại còn hạn chế, nhà phát triển vẫn chưa thể phát triển ứng dụng phức tạp trên cơ sở này.

Tuy nhiên trong tương lai, mạng đại lý sẽ cung cấp nhiều công cụ hơn cho đại lý sử dụng, không chỉ là kiến thức, mà còn bao gồm khả năng gọi API bên ngoài, thực hiện các nhiệm vụ cụ thể và cấu hình giao thức khác. Nhà phát triển sẽ có khả năng kết nối nhiều đại lý với nhau để xây dựng luồng làm việc. Ví dụ, việc viết hợp đồng thông minh Solidity sẽ liên quan đến nhiều đại lý chuyên biệt, bao gồm đại lý thiết kế giao thức, đại lý phát triển Solidity, đại lý kiểm tra an toàn mã và đại lý triển khai Solidity.

Chúng tôi phối hợp các đại lý này thông qua việc sử dụng gợi ý và tình huống. Một số ví dụ về mạng đại lý bao gồm Flock.ai, Myshell, Theoriq. Đề xuất: Đa phần các chức năng của proxy hiện nay đều hạn chế. Đối với các trường hợp sử dụng cụ thể, proxy Web2 có thể phục vụ tốt hơn và có các công cụ sắp xếp đã phát triển như Langchain, Llamaindex.

5 Khác biệt giữa mạng Proxy và mạng Reasoning

Mạng lưới đại lý đặt nặng vào LLM, cung cấp các công cụ như Langchain để tích hợp nhiều đại lý. Thông thường, nhà phát triển không cần phải tự mình phát triển mô hình học máy, mạng lưới đại lý đã đơn giản hóa quá trình phát triển và triển khai mô hình. Họ chỉ cần kết nối các đại lý và công cụ cần thiết.

Mạng suy luận là cơ sở hỗ trợ của mạng đại lý. Nó cung cấp quyền truy cập cấp thấp hơn cho các nhà phát triển. Thông thường, người dùng cuối không sử dụng trực tiếp mạng suy luận. Nhà phát triển cần triển khai mô hình của họ, không chỉ giới hạn trong LLM, và họ có thể sử dụng chúng thông qua điểm truy cập off-chain hoặc on-chain. Mạng đại lý và mạng suy luận không phải là sản phẩm hoàn toàn độc lập. Chúng ta đã bắt đầu thấy một số sản phẩm tích hợp theo chiều dọc. Họ cung cấp khả năng đại lý và suy luận đồng thời vì chúng phụ thuộc vào cơ sở hạ tầng tương tự.

  1. Địa điểm cơ hội mới Ngoại trừ việc suy luận, đào tạo và proxy mô hình, còn rất nhiều lĩnh vực mới trong lĩnh vực web3 đáng khám phá:

Bộ dữ liệu: Làm thế nào để chuyển đổi dữ liệu Khối thành bộ dữ liệu có thể sử dụng được cho học máy? Nhà phát triển học máy cần các dữ liệu cụ thể và chuyên môn hơn. Ví dụ, Giza cung cấp một số bộ dữ liệu Tài chính phi tập trung chất lượng cao, được thiết kế đặc biệt cho việc huấn luyện học máy. Dữ liệu lý tưởng không chỉ là dữ liệu bảng đơn giản, mà còn bao gồm dữ liệu đồ họa có thể mô tả các tương tác trong thế giới Khối. Hiện tại, chúng ta còn thiếu những điều này. Một số dự án hiện đang giải quyết vấn đề này bằng cách thưởng cho các cá nhân tạo bộ dữ liệu mới, chẳng hạn như Bagel và Sahara, họ cam kết bảo vệ sự riêng tư của dữ liệu cá nhân.

Lưu trữ mô hình: Một số mô hình có kích thước lớn, cách lưu trữ, phân phối và kiểm soát phiên bản của những mô hình này là rất quan trọng, điều này liên quan đến hiệu suất và chi phí của việc học máy on-chain. Trong lĩnh vực này, các dự án tiên phong như FIL, AR và 0g đã tiến hành phát triển.

Huấn luyện mô hình: Huấn luyện mô hình phân tán và có thể được xác minh là một vấn đề khó khăn. Có những tiến bộ đáng kể từ các dự án như Gensyn, Bittensor, Flock và Allora. Giám sát: Vì việc suy luận mô hình xảy ra cả trên chuỗi và ngoài chuỗi, chúng ta cần cơ sở hạ tầng mới để giúp các nhà phát triển web3 theo dõi việc sử dụng mô hình, phát hiện sớm các vấn đề và sai lệch có thể có. Với các công cụ giám sát phù hợp, các nhà phát triển học máy web3 có thể điều chỉnh kịp thời và liên tục tối ưu hóa độ chính xác của mô hình.

Cơ sở hạ tầng RAG: RAG phân tán yêu cầu môi trường cơ sở hạ tầng hoàn toàn mới, có nhu cầu cao về lưu trữ, tích hợp tính toán và cơ sở dữ liệu vector, đồng thời đảm bảo an ninh riêng tư của dữ liệu. Điều này không giống với cơ sở hạ tầng Web3 AI hiện tại, phần lớn dựa vào bên thứ ba để hoàn thành RAG, như Firstbatch và Bagel.

Mô hình được tùy chỉnh cho Web3: Không phải mọi mô hình đều phù hợp với tình huống Web3. Trong hầu hết các trường hợp, cần phải đào tạo lại mô hình để phù hợp với các ứng dụng cụ thể như dự đoán giá cả, gợi ý và nhiều hơn nữa. Với sự phát triển phồn thịnh của cơ sở hạ tầng trí tuệ nhân tạo, chúng tôi hy vọng trong tương lai sẽ có nhiều mô hình Web3 cục bộ hơn để phục vụ các ứng dụng trí tuệ nhân tạo. Ví dụ, Pond đang phát triển mạng lưới GNN dựa trên blockchain, được sử dụng trong nhiều tình huống như dự đoán giá cả, gợi ý, phát hiện gian lận và chống rửa tiền.

Đánh giá mạng: Đánh giá đại lý mà không có phản hồi từ con người không phải là dễ dàng. Với sự phổ biến của các công cụ tạo đại lý, sẽ có vô số đại lý trên thị trường. Điều này đòi hỏi một hệ thống để thể hiện khả năng của những đại lý này và giúp người dùng xác định đại lý nào hoạt động tốt nhất trong các trường hợp cụ thể. Ví dụ, Neuronets là một trong những người tham gia trong lĩnh vực này.

Cơ chế đồng thuận: Đối với các nhiệm vụ trí tuệ nhân tạo, Proof of Stake không nhất thiết là lựa chọn tốt nhất. Độ phức tạp tính toán, khó khăn trong việc xác minh và thiếu sự xác định là những thách thức chính mà Proof of Stake đang đối mặt. Bittensor đã tạo ra một cơ chế đồng thuận thông minh mới, thưởng cho các Nút trong mạng đóng góp cho các mô hình và đầu ra học máy.

  1. Triển vọng tương lai

Hiện tại, chúng tôi đã nhận thấy xu hướng phát triển tích hợp dọc. Bằng cách xây dựng một lớp tính toán cơ bản, mạng có thể hỗ trợ nhiều nhiệm vụ học máy khác nhau, bao gồm đào tạo, suy luận và dịch vụ mạng ủy quyền. Mô hình này nhằm cung cấp một giải pháp toàn diện một điểm dừng cho nhà phát triển học máy Web3. Hiện tại, mặc dù suy luận trên chuỗi có chi phí cao và tốc độ chậm, nhưng nó cung cấp tính xác thực xuất sắc và tích hợp mượt mà với hệ thống backend như hợp đồng thông minh. Tôi nghĩ trong tương lai sẽ tiến tới ứng dụng kết hợp. Một phần xử lý suy luận sẽ được thực hiện trên phía frontend hoặc off-chain, trong khi những suy luận quan trọng và quyết định sẽ được thực hiện trên chuỗi. Mô hình này đã được áp dụng trên các thiết bị di động. Bằng cách tận dụng các đặc điểm cơ bản của thiết bị di động, nó có thể chạy mô hình nhỏ nhanh chóng cục bộ và chuyển các nhiệm vụ phức tạp hơn lên đám mây sử dụng xử lý LLM lớn hơn.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)