Cảm ơn phản hồi từ Zhenyang@Upshot, Fran@Giza, Ashely@Neuronets, Matt@Valence, Dylan@Pond.
Nghiên cứu này nhằm mục đích khám phá lĩnh vực trí tuệ nhân tạo nào quan trọng nhất đối với nhà phát triển, cũng như những cơ hội tiếp theo có thể bùng nổ trong lĩnh vực Web3 và trí tuệ nhân tạo.
Trước khi chia sẻ quan điểm nghiên cứu mới, trước hết rất vui mừng vì chúng tôi đã tham gia vòng đầu tiên gọi vốn 5 triệu đô la của RedPill, cũng rất hồi hộp và mong đợi có thể cùng RedPill phát triển!
TL;DR
Với sự kết hợp của Web3 và AI trở thành đề tài đáng chú ý trong ngành mã hóa tiền tệ, cơ sở hạ tầng AI của thế giới mã hóa trở nên phát triển mạnh mẽ, nhưng việc sử dụng thực tế của AI hoặc ứng dụng được xây dựng cho AI không phải là mã hóa, vấn đề đồng nhất hóa của cơ sở hạ tầng AI dần trở nên rõ ràng. Gần đây, vòng đầu tư đầu tiên của chúng tôi vào RedPill đã mở ra một số hiểu biết sâu hơn.
Các công cụ chính để xây dựng AI Dapp bao gồm truy cập Phi tập trung OpenAI, mạng GPU, mạng suy luận và mạng đại diện.
Lý do GPU mạng nói rằng nó phổ biến hơn cả thời đại khai thác Bitcoin là bởi vì thị trường AI lớn hơn và tăng lên nhanh chóng và ổn định; AI hỗ trợ hàng triệu ứng dụng mỗi ngày; AI cần nhiều loại GPU và vị trí máy chủ khác nhau; Công nghệ đã trưởng thành hơn trong quá khứ; và đối tượng khách hàng cũng rộng hơn.
Mạng suy luận và mạng proxy có cơ sở hạ tầng tương tự nhưng tập trung vào điểm khác nhau. Mạng suy luận chủ yếu dành cho nhà phát triển có kinh nghiệm triển khai mô hình của họ, trong khi chạy mô hình không phải LLM không nhất thiết cần GPU. Mạng proxy tập trung hơn vào LLM, nhà phát triển không cần mang theo mô hình của họ mà chú trọng hơn đến kỹ thuật gợi ý và cách kết nối các proxy khác nhau. Mạng proxy luôn cần có GPU hiệu suất cao.
Dự án cơ sở hạ tầng trí tuệ nhân tạo cam kết rất lớn và vẫn đang tiếp tục tung ra các tính năng mới.
Hầu hết các dự án mã hóa nguyên gốc vẫn đang ở giai đoạn Testnet, không ổn định, cấu hình phức tạp, tính năng bị hạn chế và cần thời gian để chứng minh tính an toàn và tính riêng tư của chúng.
Giả sử AI Dapp trở thành xu hướng chính và còn nhiều lĩnh vực chưa được khai thác, ví dụ như giám sát, cơ sở hạ tầng liên quan đến RAG, mô hình Web3 nguyên bản, API nguyên bản tích hợp mã hóa và đại lý Phi tập trung của dữ liệu, đánh giá mạng v.v.
*Tích hợp dọc là một xu hướng đáng kể. Dự án cơ sở hạ tầng cố gắng cung cấp dịch vụ toàn diện, giúp đơn giản hóa công việc của các nhà phát triển AI Dapp.
Trong tương lai sẽ là hỗn hợp. Một phần suy luận được thực hiện ở phía trước, trong khi một phần được tính toán on-chain, điều này có thể xem xét đến yếu tố chi phí và tính xác thực.
Nguồn: IOSG
Giới thiệu
Sự kết hợp giữa Web3 và trí tuệ nhân tạo đang là một trong những chủ đề đáng chú ý nhất trong lĩnh vực mã hóa hiện nay. Các nhà phát triển tài năng đang xây dựng cơ sở hạ tầng trí tuệ nhân tạo cho thế giới mã hóa, hướng đến việc đưa trí tuệ vào Hợp đồng thông minh. Việc xây dựng ứng dụng trí tuệ nhân tạo trên Web3 là một nhiệm vụ rất phức tạp, mà các nhà phát triển cần xử lý các phạm vi bao gồm dữ liệu, mô hình, sức mạnh tính toán, thao tác, triển khai và tích hợp với blockchain. Để đáp ứng những nhu cầu này, các nhà sáng lập Web3 đã phát triển nhiều giải pháp sơ bộ, như mạng GPU, gán nhãn dữ liệu cộng đồng, mô hình huấn luyện cộng đồng, suy luận và huấn luyện trí tuệ nhân tạo có thể xác minh, và cửa hàng đại lý.
Và trong bối cảnh hạ tầng phát triển mạnh mẽ này, việc sử dụng thực tế AI hoặc ứng dụng được xây dựng bằng AI không phải là mã hóa đúng. Khi các nhà phát triển tìm kiếm hướng dẫn phát triển AI dApp, họ nhận thấy rằng có ít hướng dẫn liên quan đến hạ tầng AI mã hóa nguyên bản này, và hầu hết các hướng dẫn chỉ liên quan đến việc gọi OpenAI API từ phía giao diện người dùng.
Nguồn: IOSGVentures
Hiện tại ứng dụng hiện tại chưa thể tận dụng đầy đủ tính năng Phi tập trung và xác minh của blockchain, nhưng tình trạng này sẽ sớm thay đổi. Hiện nay, hầu hết cơ sở hạ tầng trí tuệ nhân tạo tập trung vào lĩnh vực mã hóa đã khởi động mạng thử nghiệm và dự định chính thức hoạt động trong vòng 6 tháng tới.
Bài nghiên cứu này sẽ giới thiệu chi tiết các công cụ chính có sẵn trong cơ sở hạ tầng trí tuệ nhân tạo của lĩnh vực mã hóa. Hãy sẵn sàng chào đón khoảnh khắc của thế giới mã hóa GPT-3.5!
1. RedPill: Cung cấp ủy quyền Phi tập trung cho OpenAI
RedPill mà chúng tôi đã đề cập trước đó là một điểm vào tốt.
OpenAI có một số mô hình mạnh mẽ hàng đầu thế giới như GPT-4-vision, GPT-4-turbo và GPT-4o, là sự lựa chọn tốt nhất để xây dựng ứng dụng trí tuệ nhân tạo tiên tiến.
Nhà phát triển có thể tích hợp API OpenAI vào dApp thông qua Máy Oracle hoặc giao diện trước.
RedPill kết hợp API của các nhà phát triển OpenAI vào một giao diện duy nhất, cung cấp dịch vụ trí tuệ nhân tạo nhanh chóng, tiết kiệm và có thể xác thực cho người dùng trên toàn cầu, từ đó đạt được sự dân chủ hóa tài nguyên mô hình trí tuệ nhân tạo hàng đầu. Thuật toán định tuyến của RedPill sẽ định tuyến yêu cầu của nhà phát triển đến người đóng góp duy nhất. Yêu cầu API sẽ được thực hiện thông qua mạng phân phối của nó, qua đó vượt qua bất kỳ hạn chế nào có thể đến từ OpenAI, giải quyết một số vấn đề phổ biến mà các nhà phát triển mã hóa đang đối mặt, như:
Giới hạn TPM (Token mỗi phút): Tài khoản mới có giới hạn về việc sử dụng Token, không đáp ứng được nhu cầu của các ứng dụng phụ thuộc vào AI phổ biến.
Hạn chế truy cập: Một số mô hình đã đặt hạn chế truy cập cho tài khoản mới hoặc một số quốc gia.
Bằng cách sử dụng cùng mã yêu cầu nhưng thay đổi tên máy chủ, các nhà phát triển có thể truy cập mô hình OpenAI một cách chi phí thấp, mở rộng cao và không hạn chế.
2. Mạng GPU
Ngoài việc sử dụng API của OpenAI, nhiều nhà phát triển còn chọn tự lưu trữ mô hình tại nhà. Họ có thể dựa vào các mạng GPU Phi tập trung như io.net, Aethir, Akash và các mạng phổ biến khác để tự xây dựng cụm GPU và triển khai và chạy các mô hình nội bộ hoặc Mã nguồn mở mạnh mẽ khác.
Mạng GPU Phi tập trung như vậy có thể sử dụng sức mạnh tính toán từ cá nhân hoặc các trung tâm dữ liệu nhỏ để cung cấp cấu hình linh hoạt, lựa chọn vị trí máy chủ long hơn và chi phí thấp hơn, giúp các nhà phát triển có thể dễ dàng tiến hành thử nghiệm liên quan đến trí tuệ nhân tạo trong ngân sách hạn chế. Tuy nhiên, do tính chất Phi tập trung, mạng GPU loại này vẫn tồn tại một số hạn chế về tính năng, sẵn có và quyền riêng tư dữ liệu.
Trong vài tháng qua, nhu cầu về GPU đã bùng nổ, vượt qua cả Bitcoin Khai thác hồi trước. Nguyên nhân của hiện tượng này bao gồm:
目标客户增多,GPU 网络现在服务于 AI 开发者,他们的数量不仅庞大而且更为忠实,不会受到Tiền điện tử价格Biến động的影响。
So với các thiết bị Khai thác chuyên dụng, GPU Phi tập trung cung cấp nhiều model và thông số kỹ thuật hơn, phù hợp với yêu cầu của nhiều tình huống khác nhau. Đặc biệt, việc xử lý mô hình lớn đòi hỏi VRAM cao hơn, trong khi những nhiệm vụ nhỏ hơn có thể chọn GPU phù hợp hơn. Đồng thời, GPU Phi tập trung có thể phục vụ người dùng cuối gần hơn, giảm Trễ.
Công nghệ ngày càng trưởng thành, GPU mạng phụ thuộc vào khối chuỗi nhanh như Solana Thanh toán, công nghệ ảo hóa Docker và cụm tính toán Ray.
Về lợi nhuận đầu tư, thị trường trí tuệ nhân tạo đang mở rộng, cơ hội phát triển các ứng dụng và mô hình mới dài, tỷ suất lợi nhuận dự kiến của mô hình H100 là 60-70%, trong khi Khai thác Bitcoin (BTC) lại phức tạp hơn, chỉ có những người chiến thắng mới có lợi, sản lượng hạn chế.
BTC Khai thác doanh nghiệp như Iris Energy, Core Scientific và Bitdeer cũng bắt đầu hỗ trợ mạng lưới GPU, cung cấp dịch vụ trí tuệ nhân tạo và tích cực mua GPU được thiết kế đặc biệt cho trí tuệ nhân tạo, như H100.
Đề xuất: Đối với những nhà phát triển Web2 không quá quan tâm đến SLA, io.net cung cấp trải nghiệm đơn giản và dễ sử dụng, là một lựa chọn rất đáng giá.
3. Mạng suy luận
Đây là cốt lõi của cơ sở hạ tầng mã hóa AI nguyên sinh. Nó sẽ hỗ trợ hàng tỷ lần hoạt động suy luận AI trong tương lai. Nhiều lớp AI layer1 hoặc layer2 cung cấp khả năng gọi nguyên sinh AI suy luận trên chuỗi cho các nhà phát triển. Các nhà lãnh đạo thị trường bao gồm Ritual, Valence và Fetch.ai.
Các mạng này có sự khác biệt như sau:
Hiệu suất(Trễ、thời gian tính toán)
Model được hỗ trợ
Khả năng xác minh
Giá (Chi phí tiêu thụ trên chuỗi, Chi phí suy luận)
Trải nghiệm phát triển
3.1 Mục tiêu
Tình huống lý tưởng là, nhà phát triển có thể truy cập dịch vụ suy luận trí tuệ nhân tạo tùy chỉnh của họ một cách dễ dàng ở bất kỳ đâu, qua bất kỳ hình thức nào mà không gặp phải gần như bất kỳ rào cản nào trong quá trình tích hợp.
Mạng suy luận cung cấp toàn bộ hỗ trợ cơ bản mà các nhà phát triển cần, bao gồm việc tạo ra theo nhu cầu và bằng chứng xác nhận, tính toán suy luận, Chuyển tiếp và xác minh dữ liệu suy luận, cung cấp giao diện Web2 và Web3, triển khai mô hình một cách dễ dàng, giám sát hệ thống, thực hiện các hoạt động tương tác chuỗi chéo, tích hợp đồng bộ và thực hiện theo lịch trình.
Nguồn: IOSGVentures
Với các tính năng này, các nhà phát triển có thể tích hợp liền mạch các dịch vụ suy luận vào Hợp đồng thông minh hiện có của họ. Ví dụ: khi xây dựng Tài chính phi tập trung bot giao dịch, các bot này sử dụng các mô hình học máy để tìm thời điểm mua và bán các cặp giao dịch cụ thể và thực hiện các chiến lược giao dịch tương ứng trên nền tảng giao dịch cơ bản.
Trong trạng thái lý tưởng hoàn toàn, tất cả cơ sở hạ tầng đều được đặt trên nền tảng đám mây. Nhà phát triển chỉ cần tải lên mô hình chiến lược giao dịch của họ dưới định dạng thông dụng như torch, mạng suy luận sẽ lưu trữ và cung cấp mô hình cho các truy vấn Web2 và Web3.
Sau khi hoàn thành tất cả các bước triển khai mô hình, nhà phát triển có thể gọi trực tiếp mô hình suy luận thông qua Web3 API hoặc hợp đồng thông minh. Mạng suy luận sẽ tiếp tục thực hiện các chiến lược giao dịch này và phản hồi kết quả cho hợp đồng thông minh cơ bản. Nếu số lượng quỹ cộng đồng mà nhà phát triển quản lý lớn, cần cung cấp xác nhận kết quả suy luận. Ngay khi nhận được kết quả suy luận, hợp đồng thông minh sẽ thực hiện giao dịch dựa trên kết quả này.
Nguồn: IOSGVentures
3.1.1 Asynchronous and Synchronous
Lý thuyết cho thấy, thực hiện suy luận bất đồng bộ có thể mang lại hiệu suất tốt hơn; tuy nhiên, cách làm này có thể khiến trải nghiệm phát triển trở nên không tiện lợi.
Khi sử dụng phương thức bất đồng bộ, nhà phát triển cần gửi nhiệm vụ vào hợp đồng thông minh của mạng suy luận. Khi nhiệm vụ suy luận hoàn thành, hợp đồng thông minh của mạng suy luận sẽ trả kết quả. Trong mô hình lập trình này, logic được chia thành hai phần: gọi suy luận và xử lý kết quả suy luận.
Nguồn: IOSGVentures
Nếu nhà phát triển có cuộc gọi suy luận lồng ghép và logic điều khiển lớn, tình hình sẽ trở nên tồi tệ hơn.
Nguồn: IOSGVentures
Mô hình lập trình bất đồng bộ làm cho việc tích hợp với các Hợp đồng thông minh hiện có trở nên khó khăn. Điều này đòi hỏi nhà phát triển phải viết thêm rất nhiều mã và xử lý lỗi cũng như quản lý các mối quan hệ phụ thuộc.
Tương đối, lập trình đồng bộ là phương pháp dễ hiểu hơn đối với nhà phát triển, nhưng nó đặt ra vấn đề về thời gian phản hồi và thiết kế Khối. Ví dụ, nếu dữ liệu đầu vào là dữ liệu có biến đổi nhanh như thời gian Khối hoặc giá cả, thì sau khi suy luận hoàn tất, dữ liệu không còn mới nữa, điều này có thể dẫn đến việc thực hiện Hợp đồng thông minh trong một số trường hợp cần Rollback. Hãy tưởng tượng bạn sử dụng một giá cả đã lỗi thời để thực hiện giao dịch.
Nguồn: IOSGVentures
Đa phần cơ sở hạ tầng AI sử dụng xử lý bất đồng bộ, nhưng Valence đang cố gắng giải quyết những vấn đề này.
3.2 Tình hình thực tế
Trong thực tế, nhiều mạng lưới suy luận mới vẫn đang ở giai đoạn thử nghiệm, như mạng lưới Ritual. Theo tài liệu công khai của họ, các tính năng hiện tại của mạng lưới này còn hạn chế (như xác minh, chứng minh và các tính năng khác vẫn chưa được triển khai). Hiện tại họ chưa cung cấp một cơ sở hạ tầng đám mây để hỗ trợ tính toán trí tuệ nhân tạo trên chuỗi, mà thay vào đó cung cấp một khung để tự tổ chức tính toán trí tuệ nhân tạo và chuyển kết quả đến trên chuỗi.
Đây là một kiến trúc hoạt động của AIGC Token không thể thay thế. Mô hình lan truyền tạo ra Token không thể thay thế và tải lên Arweave. Mạng suy luận sẽ sử dụng Địa chỉ Arweave này để đúc Token không thể thay thế trên chuỗi.
Nguồn: IOSGVentures
Quá trình này rất phức tạp, các nhà phát triển cần phải triển khai và duy trì hạ tầng cơ bản, bao gồm Nút Ritual được tùy chỉnh với logic dịch vụ, Nút Diffusion ổn định và Hợp đồng thông minh Token không thể thay thế.
Đề xuất: Hiện tại, mạng suy luận hiện nay khá phức tạp trong việc tích hợp và triển khai mô hình tùy chỉnh, và tại giai đoạn này, hầu hết các mạng vẫn chưa hỗ trợ chức năng xác thực. Áp dụng công nghệ AI vào phía trước sẽ cung cấp cho các nhà phát triển một lựa chọn tương đối đơn giản. Nếu bạn cần chức năng xác thực, nhà cung cấp ZKML Giza là một lựa chọn tốt.
4. Mạng đại lý
Mạng lưới đại lý cho phép người dùng dễ dàng tùy chỉnh đại lý. Mạng lưới này bao gồm các thực thể hoặc hợp đồng thông minh có thể thực hiện tác vụ tự động, tương tác với mạng lưới Blockchain và với nhau mà không cần can thiệp trực tiếp của con người. Nó chủ yếu hướng đến công nghệ LLM. Ví dụ, nó có thể cung cấp một trò chuyện bot GPT với hiểu biết sâu về Ethereum. Các công cụ hiện tại của bot này còn hạn chế và nhà phát triển chưa thể phát triển ứng dụng phức tạp trên nền tảng này.
Nguồn: IOSGVentures
Tuy nhiên trong tương lai, mạng lưới đại lý sẽ cung cấp công cụ dài hơn cho đại lý sử dụng, không chỉ là kiến thức mà còn bao gồm khả năng gọi API bên ngoài, thực hiện các nhiệm vụ cụ thể và nhiều hơn nữa. Nhà phát triển có thể kết nối dài các đại lý để xây dựng quy trình làm việc. Ví dụ, viết hợp đồng thông minh Solidity sẽ liên quan đến nhiều đại lý chuyên biệt, bao gồm đại lý thiết kế giao thức, đại lý phát triển Solidity, đại lý kiểm tra bảo mật mã và đại lý triển khai Solidity.
Nguồn: IOSGVentures
Chúng tôi điều phối sự hợp tác của các đại lý này bằng cách sử dụng lời nhắc và tình huống.
Một số ví dụ về mạng lưới đại lý bao gồm Flock.ai, Myshell, Theoriq.
Đề xuất: Hầu hết các chức năng của đại lý hiện nay đều có giới hạn. Đối với các trường hợp sử dụng cụ thể, đại lý Web2 có thể phục vụ tốt hơn và có các công cụ phối hợp mạnh mẽ như Langchain, Llamaindex.
5. Sự khác biệt giữa mạng lưới đại lý và mạng lưới suy luận
Mạng đại lý tập trung hơn vào LLM và cung cấp các công cụ như Langchain để tích hợp long đại lý. Thường thì, nhà phát triển không cần phải tự phát triển và triển khai mô hình học máy, mạng đại lý đã đơn giản hóa quá trình phát triển và triển khai mô hình. Họ chỉ cần liên kết đại lý và công cụ cần thiết. Trong nhiều trường hợp, người dùng cuối sẽ trực tiếp sử dụng các đại lý này.
Mạng suy luận là cơ sở hỗ trợ của mạng đại lý. Nó cung cấp quyền truy cập cấp thấp hơn cho các nhà phát triển. Thông thường, người dùng cuối không sử dụng trực tiếp mạng suy luận. Nhà phát triển cần triển khai mô hình của họ, không chỉ giới hạn ở LLM, và họ có thể sử dụng chúng thông qua điểm truy cập off-chain hoặc on-chain.
Mạng đại lý và mạng suy luận không phải là các sản phẩm hoàn toàn độc lập. Chúng tôi đã bắt đầu thấy một số sản phẩm tích hợp theo chiều dọc. Họ cung cấp khả năng đại lý và suy luận đồng thời vì hai chức năng này phụ thuộc vào cơ sở hạ tầng tương tự.
6. Vùng đất của những cơ hội mới
Ngoài việc suy luận mô hình, huấn luyện và mạng đại lý, có rất nhiều lắm việc đáng khám phá trong lănh vực web3:
Dữ liệu: Làm thế nào để chuyển đổi dữ liệu từ Khối chuỗi thành bộ dữ liệu có thể sử dụng được cho việc học máy? Những nhà phát triển học máy cần dữ liệu cụ thể và chuyên biệt hơn. Ví dụ, Giza cung cấp một số bộ dữ liệu chất lượng cao về Tài chính phi tập trung, được thiết kế đặc biệt cho việc huấn luyện học máy. Dữ liệu lý tưởng không chỉ đơn giản là dữ liệu bảng đơn giản, mà còn bao gồm dữ liệu đồ thị mô tả được tương tác trong thế giới Khối chuỗi. Hiện tại, chúng ta vẫn còn thiếu về điều này. Hiện nay, một số dự án đang giải quyết vấn đề này bằng cách thưởng cho cá nhân tạo ra các bộ dữ liệu mới, như Bagel và Sahara, họ cam kết bảo vệ sự riêng tư của dữ liệu cá nhân.
Lưu trữ mô hình: Một số mô hình có kích thước lớn, cách lưu trữ, phân phối và kiểm soát phiên bản của những mô hình này là rất quan trọng, điều này liên quan đến hiệu suất và chi phí của học máy on-chain. Trong lĩnh vực này, các dự án tiên tiến như FIL, AR và 0g đã đạt được tiến bộ.
Đào tạo mô hình: Việc đào tạo mô hình phân tán và có thể kiểm tra là một vấn đề khó khăn. Gensyn, Bittensor, Flock và Allora đã có tiến bộ đáng kể.
Giám sát: Vì việc suy luận mô hình xảy ra cả trên chuỗi và ngoài chuỗi, chúng tôi cần cơ sở hạ tầng mới để hỗ trợ các nhà phát triển web3 theo dõi việc sử dụng mô hình, phát hiện sớm các vấn đề và sai lệch có thể tồn tại. Với các công cụ giám sát phù hợp, các nhà phát triển học máy web3 có thể điều chỉnh kịp thời và tối ưu hóa liên tục độ chính xác của mô hình.
Cơ sở hạ tầng RAG: RAG phân tán cần môi trường cơ sở hạ tầng hoàn toàn mới, yêu cầu lưu trữ, tính toán nhúng và cơ sở dữ liệu vector cao, đồng thời đảm bảo an toàn dữ liệu riêng tư. Điều này khác biệt hoàn toàn so với cơ sở hạ tầng AI Web3 hiện tại, hầu hết dựa vào bên thứ ba để hoàn thành RAG, chẳng hạn như Firstbatch và Bagel.
Mô hình được tùy chỉnh cho Web3: không phải tất cả các mô hình đều phù hợp với tình huống Web3. Trong nhiều trường hợp lớn, cần phải huấn luyện lại mô hình để phù hợp với các ứng dụng cụ thể như dự đoán giá cả, đề xuất, v.v. Theo sự phát triển sầm uất của cơ sở hạ tầng trí tuệ nhân tạo, chúng tôi hy vọng trong tương lai sẽ có nhiều mô hình Web3 cục bộ hơn để phục vụ cho các ứng dụng trí tuệ nhân tạo. Ví dụ, Pond đang phát triển mạng lưới neuron gia tăng (GNN) trên blockchain, được sử dụng cho dự đoán giá cả, đề xuất, phát hiện gian lận và chống rửa tiền trong nhiều tình huống khác nhau.
Đánh giá mạng: Đánh giá đại lý trong tình huống thiếu phản hồi từ con người không hề dễ dàng. Với sự phổ biến của công cụ tạo đại lý, sẽ có vô số đại lý xuất hiện trên thị trường. Điều này đòi hỏi một hệ thống để trình bày khả năng của những đại lý này và giúp người dùng đánh giá xem đại lý nào hoạt động tốt nhất trong trường hợp cụ thể. Ví dụ, Neuronets là một trong những người tham gia trong lĩnh vực này.
Cơ chế đồng thuận: Đối với nhiệm vụ AI, PoS không nhất thiết là lựa chọn tốt nhất. Độ phức tạp tính toán, khó khăn trong xác minh và thiếu tính xác định là những thách thức chính mà PoS đối mặt. Bittensor đã tạo ra một Cơ chế đồng thuận mới, thưởng cho các Nút đóng góp cho mô hình học máy và đầu ra trong mạng.
7. Tương lai
Hiện tại chúng tôi đang quan sát xu hướng phát triển tích hợp dọc. Bằng cách xây dựng một tầng tính toán cơ bản, mạng có thể hỗ trợ nhiều tác vụ học máy khác nhau, bao gồm đào tạo, suy luận và dịch vụ mạng ủy quyền. Mô hình này nhằm cung cấp một giải pháp toàn diện một cửa cho các nhà phát triển học máy Web3.
Hiện tại, dù việc xử lý on-chain tốn kém và chậm, nhưng nó cung cấp tính xác thực tuyệt vời và tích hợp mượt mà với hệ thống backend (như Hợp đồng thông minh). Tôi nghĩ rằng trong tương lai, chúng ta sẽ đi theo con đường ứng dụng kết hợp. Một phần xử lý sẽ được thực hiện ở phía front-end hoặc off-chain, trong khi những phần quan trọng, quyết định sẽ được thực hiện on-chain. Mô hình này đã được áp dụng trên thiết bị di động. Bằng cách tận dụng tính chất cơ bản của thiết bị di động, nó có thể chạy mô hình nhỏ nhanh chóng cục bộ và chuyển những nhiệm vụ phức tạp hơn lên đám mây, sử dụng sự xử lý LLM lớn hơn.
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
IOSG: Điểm bùng nổ tiếp theo của Web3+AI là gì?
Tác giả: IOSG Ventures
Cảm ơn phản hồi từ Zhenyang@Upshot, Fran@Giza, Ashely@Neuronets, Matt@Valence, Dylan@Pond.
Nghiên cứu này nhằm mục đích khám phá lĩnh vực trí tuệ nhân tạo nào quan trọng nhất đối với nhà phát triển, cũng như những cơ hội tiếp theo có thể bùng nổ trong lĩnh vực Web3 và trí tuệ nhân tạo.
Trước khi chia sẻ quan điểm nghiên cứu mới, trước hết rất vui mừng vì chúng tôi đã tham gia vòng đầu tiên gọi vốn 5 triệu đô la của RedPill, cũng rất hồi hộp và mong đợi có thể cùng RedPill phát triển!
TL;DR
Với sự kết hợp của Web3 và AI trở thành đề tài đáng chú ý trong ngành mã hóa tiền tệ, cơ sở hạ tầng AI của thế giới mã hóa trở nên phát triển mạnh mẽ, nhưng việc sử dụng thực tế của AI hoặc ứng dụng được xây dựng cho AI không phải là mã hóa, vấn đề đồng nhất hóa của cơ sở hạ tầng AI dần trở nên rõ ràng. Gần đây, vòng đầu tư đầu tiên của chúng tôi vào RedPill đã mở ra một số hiểu biết sâu hơn.
Nguồn: IOSG
Giới thiệu
Nguồn: IOSGVentures
1. RedPill: Cung cấp ủy quyền Phi tập trung cho OpenAI
RedPill mà chúng tôi đã đề cập trước đó là một điểm vào tốt.
OpenAI có một số mô hình mạnh mẽ hàng đầu thế giới như GPT-4-vision, GPT-4-turbo và GPT-4o, là sự lựa chọn tốt nhất để xây dựng ứng dụng trí tuệ nhân tạo tiên tiến.
Nhà phát triển có thể tích hợp API OpenAI vào dApp thông qua Máy Oracle hoặc giao diện trước.
RedPill kết hợp API của các nhà phát triển OpenAI vào một giao diện duy nhất, cung cấp dịch vụ trí tuệ nhân tạo nhanh chóng, tiết kiệm và có thể xác thực cho người dùng trên toàn cầu, từ đó đạt được sự dân chủ hóa tài nguyên mô hình trí tuệ nhân tạo hàng đầu. Thuật toán định tuyến của RedPill sẽ định tuyến yêu cầu của nhà phát triển đến người đóng góp duy nhất. Yêu cầu API sẽ được thực hiện thông qua mạng phân phối của nó, qua đó vượt qua bất kỳ hạn chế nào có thể đến từ OpenAI, giải quyết một số vấn đề phổ biến mà các nhà phát triển mã hóa đang đối mặt, như:
Bằng cách sử dụng cùng mã yêu cầu nhưng thay đổi tên máy chủ, các nhà phát triển có thể truy cập mô hình OpenAI một cách chi phí thấp, mở rộng cao và không hạn chế.
2. Mạng GPU
Ngoài việc sử dụng API của OpenAI, nhiều nhà phát triển còn chọn tự lưu trữ mô hình tại nhà. Họ có thể dựa vào các mạng GPU Phi tập trung như io.net, Aethir, Akash và các mạng phổ biến khác để tự xây dựng cụm GPU và triển khai và chạy các mô hình nội bộ hoặc Mã nguồn mở mạnh mẽ khác.
Mạng GPU Phi tập trung như vậy có thể sử dụng sức mạnh tính toán từ cá nhân hoặc các trung tâm dữ liệu nhỏ để cung cấp cấu hình linh hoạt, lựa chọn vị trí máy chủ long hơn và chi phí thấp hơn, giúp các nhà phát triển có thể dễ dàng tiến hành thử nghiệm liên quan đến trí tuệ nhân tạo trong ngân sách hạn chế. Tuy nhiên, do tính chất Phi tập trung, mạng GPU loại này vẫn tồn tại một số hạn chế về tính năng, sẵn có và quyền riêng tư dữ liệu.
Trong vài tháng qua, nhu cầu về GPU đã bùng nổ, vượt qua cả Bitcoin Khai thác hồi trước. Nguyên nhân của hiện tượng này bao gồm:
Đề xuất: Đối với những nhà phát triển Web2 không quá quan tâm đến SLA, io.net cung cấp trải nghiệm đơn giản và dễ sử dụng, là một lựa chọn rất đáng giá.
3. Mạng suy luận
Đây là cốt lõi của cơ sở hạ tầng mã hóa AI nguyên sinh. Nó sẽ hỗ trợ hàng tỷ lần hoạt động suy luận AI trong tương lai. Nhiều lớp AI layer1 hoặc layer2 cung cấp khả năng gọi nguyên sinh AI suy luận trên chuỗi cho các nhà phát triển. Các nhà lãnh đạo thị trường bao gồm Ritual, Valence và Fetch.ai.
Các mạng này có sự khác biệt như sau:
3.1 Mục tiêu
Tình huống lý tưởng là, nhà phát triển có thể truy cập dịch vụ suy luận trí tuệ nhân tạo tùy chỉnh của họ một cách dễ dàng ở bất kỳ đâu, qua bất kỳ hình thức nào mà không gặp phải gần như bất kỳ rào cản nào trong quá trình tích hợp.
Mạng suy luận cung cấp toàn bộ hỗ trợ cơ bản mà các nhà phát triển cần, bao gồm việc tạo ra theo nhu cầu và bằng chứng xác nhận, tính toán suy luận, Chuyển tiếp và xác minh dữ liệu suy luận, cung cấp giao diện Web2 và Web3, triển khai mô hình một cách dễ dàng, giám sát hệ thống, thực hiện các hoạt động tương tác chuỗi chéo, tích hợp đồng bộ và thực hiện theo lịch trình.
Nguồn: IOSGVentures
Với các tính năng này, các nhà phát triển có thể tích hợp liền mạch các dịch vụ suy luận vào Hợp đồng thông minh hiện có của họ. Ví dụ: khi xây dựng Tài chính phi tập trung bot giao dịch, các bot này sử dụng các mô hình học máy để tìm thời điểm mua và bán các cặp giao dịch cụ thể và thực hiện các chiến lược giao dịch tương ứng trên nền tảng giao dịch cơ bản.
Trong trạng thái lý tưởng hoàn toàn, tất cả cơ sở hạ tầng đều được đặt trên nền tảng đám mây. Nhà phát triển chỉ cần tải lên mô hình chiến lược giao dịch của họ dưới định dạng thông dụng như torch, mạng suy luận sẽ lưu trữ và cung cấp mô hình cho các truy vấn Web2 và Web3.
Sau khi hoàn thành tất cả các bước triển khai mô hình, nhà phát triển có thể gọi trực tiếp mô hình suy luận thông qua Web3 API hoặc hợp đồng thông minh. Mạng suy luận sẽ tiếp tục thực hiện các chiến lược giao dịch này và phản hồi kết quả cho hợp đồng thông minh cơ bản. Nếu số lượng quỹ cộng đồng mà nhà phát triển quản lý lớn, cần cung cấp xác nhận kết quả suy luận. Ngay khi nhận được kết quả suy luận, hợp đồng thông minh sẽ thực hiện giao dịch dựa trên kết quả này.
Nguồn: IOSGVentures
3.1.1 Asynchronous and Synchronous
Lý thuyết cho thấy, thực hiện suy luận bất đồng bộ có thể mang lại hiệu suất tốt hơn; tuy nhiên, cách làm này có thể khiến trải nghiệm phát triển trở nên không tiện lợi.
Khi sử dụng phương thức bất đồng bộ, nhà phát triển cần gửi nhiệm vụ vào hợp đồng thông minh của mạng suy luận. Khi nhiệm vụ suy luận hoàn thành, hợp đồng thông minh của mạng suy luận sẽ trả kết quả. Trong mô hình lập trình này, logic được chia thành hai phần: gọi suy luận và xử lý kết quả suy luận.
Nguồn: IOSGVentures
Nếu nhà phát triển có cuộc gọi suy luận lồng ghép và logic điều khiển lớn, tình hình sẽ trở nên tồi tệ hơn.
Nguồn: IOSGVentures
Mô hình lập trình bất đồng bộ làm cho việc tích hợp với các Hợp đồng thông minh hiện có trở nên khó khăn. Điều này đòi hỏi nhà phát triển phải viết thêm rất nhiều mã và xử lý lỗi cũng như quản lý các mối quan hệ phụ thuộc.
Tương đối, lập trình đồng bộ là phương pháp dễ hiểu hơn đối với nhà phát triển, nhưng nó đặt ra vấn đề về thời gian phản hồi và thiết kế Khối. Ví dụ, nếu dữ liệu đầu vào là dữ liệu có biến đổi nhanh như thời gian Khối hoặc giá cả, thì sau khi suy luận hoàn tất, dữ liệu không còn mới nữa, điều này có thể dẫn đến việc thực hiện Hợp đồng thông minh trong một số trường hợp cần Rollback. Hãy tưởng tượng bạn sử dụng một giá cả đã lỗi thời để thực hiện giao dịch.
Nguồn: IOSGVentures
Đa phần cơ sở hạ tầng AI sử dụng xử lý bất đồng bộ, nhưng Valence đang cố gắng giải quyết những vấn đề này.
3.2 Tình hình thực tế
Trong thực tế, nhiều mạng lưới suy luận mới vẫn đang ở giai đoạn thử nghiệm, như mạng lưới Ritual. Theo tài liệu công khai của họ, các tính năng hiện tại của mạng lưới này còn hạn chế (như xác minh, chứng minh và các tính năng khác vẫn chưa được triển khai). Hiện tại họ chưa cung cấp một cơ sở hạ tầng đám mây để hỗ trợ tính toán trí tuệ nhân tạo trên chuỗi, mà thay vào đó cung cấp một khung để tự tổ chức tính toán trí tuệ nhân tạo và chuyển kết quả đến trên chuỗi.
Đây là một kiến trúc hoạt động của AIGC Token không thể thay thế. Mô hình lan truyền tạo ra Token không thể thay thế và tải lên Arweave. Mạng suy luận sẽ sử dụng Địa chỉ Arweave này để đúc Token không thể thay thế trên chuỗi.
Nguồn: IOSGVentures
Quá trình này rất phức tạp, các nhà phát triển cần phải triển khai và duy trì hạ tầng cơ bản, bao gồm Nút Ritual được tùy chỉnh với logic dịch vụ, Nút Diffusion ổn định và Hợp đồng thông minh Token không thể thay thế.
Đề xuất: Hiện tại, mạng suy luận hiện nay khá phức tạp trong việc tích hợp và triển khai mô hình tùy chỉnh, và tại giai đoạn này, hầu hết các mạng vẫn chưa hỗ trợ chức năng xác thực. Áp dụng công nghệ AI vào phía trước sẽ cung cấp cho các nhà phát triển một lựa chọn tương đối đơn giản. Nếu bạn cần chức năng xác thực, nhà cung cấp ZKML Giza là một lựa chọn tốt.
4. Mạng đại lý
Mạng lưới đại lý cho phép người dùng dễ dàng tùy chỉnh đại lý. Mạng lưới này bao gồm các thực thể hoặc hợp đồng thông minh có thể thực hiện tác vụ tự động, tương tác với mạng lưới Blockchain và với nhau mà không cần can thiệp trực tiếp của con người. Nó chủ yếu hướng đến công nghệ LLM. Ví dụ, nó có thể cung cấp một trò chuyện bot GPT với hiểu biết sâu về Ethereum. Các công cụ hiện tại của bot này còn hạn chế và nhà phát triển chưa thể phát triển ứng dụng phức tạp trên nền tảng này.
Nguồn: IOSGVentures
Tuy nhiên trong tương lai, mạng lưới đại lý sẽ cung cấp công cụ dài hơn cho đại lý sử dụng, không chỉ là kiến thức mà còn bao gồm khả năng gọi API bên ngoài, thực hiện các nhiệm vụ cụ thể và nhiều hơn nữa. Nhà phát triển có thể kết nối dài các đại lý để xây dựng quy trình làm việc. Ví dụ, viết hợp đồng thông minh Solidity sẽ liên quan đến nhiều đại lý chuyên biệt, bao gồm đại lý thiết kế giao thức, đại lý phát triển Solidity, đại lý kiểm tra bảo mật mã và đại lý triển khai Solidity.
Nguồn: IOSGVentures
Chúng tôi điều phối sự hợp tác của các đại lý này bằng cách sử dụng lời nhắc và tình huống.
Một số ví dụ về mạng lưới đại lý bao gồm Flock.ai, Myshell, Theoriq.
Đề xuất: Hầu hết các chức năng của đại lý hiện nay đều có giới hạn. Đối với các trường hợp sử dụng cụ thể, đại lý Web2 có thể phục vụ tốt hơn và có các công cụ phối hợp mạnh mẽ như Langchain, Llamaindex.
5. Sự khác biệt giữa mạng lưới đại lý và mạng lưới suy luận
Mạng đại lý tập trung hơn vào LLM và cung cấp các công cụ như Langchain để tích hợp long đại lý. Thường thì, nhà phát triển không cần phải tự phát triển và triển khai mô hình học máy, mạng đại lý đã đơn giản hóa quá trình phát triển và triển khai mô hình. Họ chỉ cần liên kết đại lý và công cụ cần thiết. Trong nhiều trường hợp, người dùng cuối sẽ trực tiếp sử dụng các đại lý này.
Mạng suy luận là cơ sở hỗ trợ của mạng đại lý. Nó cung cấp quyền truy cập cấp thấp hơn cho các nhà phát triển. Thông thường, người dùng cuối không sử dụng trực tiếp mạng suy luận. Nhà phát triển cần triển khai mô hình của họ, không chỉ giới hạn ở LLM, và họ có thể sử dụng chúng thông qua điểm truy cập off-chain hoặc on-chain.
Mạng đại lý và mạng suy luận không phải là các sản phẩm hoàn toàn độc lập. Chúng tôi đã bắt đầu thấy một số sản phẩm tích hợp theo chiều dọc. Họ cung cấp khả năng đại lý và suy luận đồng thời vì hai chức năng này phụ thuộc vào cơ sở hạ tầng tương tự.
6. Vùng đất của những cơ hội mới
Ngoài việc suy luận mô hình, huấn luyện và mạng đại lý, có rất nhiều lắm việc đáng khám phá trong lănh vực web3:
7. Tương lai
Hiện tại chúng tôi đang quan sát xu hướng phát triển tích hợp dọc. Bằng cách xây dựng một tầng tính toán cơ bản, mạng có thể hỗ trợ nhiều tác vụ học máy khác nhau, bao gồm đào tạo, suy luận và dịch vụ mạng ủy quyền. Mô hình này nhằm cung cấp một giải pháp toàn diện một cửa cho các nhà phát triển học máy Web3.
Hiện tại, dù việc xử lý on-chain tốn kém và chậm, nhưng nó cung cấp tính xác thực tuyệt vời và tích hợp mượt mà với hệ thống backend (như Hợp đồng thông minh). Tôi nghĩ rằng trong tương lai, chúng ta sẽ đi theo con đường ứng dụng kết hợp. Một phần xử lý sẽ được thực hiện ở phía front-end hoặc off-chain, trong khi những phần quan trọng, quyết định sẽ được thực hiện on-chain. Mô hình này đã được áp dụng trên thiết bị di động. Bằng cách tận dụng tính chất cơ bản của thiết bị di động, nó có thể chạy mô hình nhỏ nhanh chóng cục bộ và chuyển những nhiệm vụ phức tạp hơn lên đám mây, sử dụng sự xử lý LLM lớn hơn.