著者: IOSG
TLの; 博士
Web3とAIの組み合わせが暗号化通貨界で注目される中、暗号化世界のAIインフラが活発に構築されていますが、AIを活用する実際のアプリケーションはあまりありません。AIインフラの均質化の問題が徐々に浮かび上がっています。最近、私たちが参加したRedPillの最初の資金調達は、より深い理解を引き起こしました。
AI Dappを構築する主要ツールキットには、分散化OpenAIアクセス、GPUネットワーク、推論ネットワーク、およびエージェントネットワークが含まれています。
GPUネットワークは、「BTCマイニング時代」よりも人気があると言われる理由は、AI市場がより大きく、急速かつ安定して成長しているためです。AIは毎日何百万ものアプリケーションをサポートしており、多様なGPUモデルとサーバーロケーションが必要です。技術も過去よりも成熟しており、対象となる顧客層も広範です。
推論ネットワークとエージェントネットワークは、類似の基盤を持っていますが、焦点は異なります。推論ネットワークは、経験豊富な開発者が自分のモデルを展開するために主に使用されますが、非LLMモデルを実行するためには必ずしもGPUが必要ではありません。一方、エージェントネットワークはLLMに焦点を当てており、開発者はモデルを持参する必要はなく、代わりに異なるエージェントをどのように接続するかやエンジニアリングのヒントにより注力しています。エージェントネットワークには常に高性能なGPUが必要です。
AI 基盤プロジェクトは非常に大きな約束をしており、引き続き新機能を展開しています。
多くのネイティブ暗号化プロジェクトはまだテストネットの段階にあり、安定性が低く、設定が複雑で、機能が制限されており、その安全性とプライバシー性を証明するにはまだ時間が必要です。
AI Dapp が大きなトレンドとなると仮定すると、監視、RAG 関連のインフラストラクチャ、Web3 ネイティブモデル、組み込みの暗号化ネイティブ API とデータの分散化プロキシ、ネットワークの評価など、まだ開発されていない多くの領域があります。
垂直統合は著しいトレンドです。インフラプロジェクトは、一括サービスを提供し、AI Dapp 開発者の作業を簡素化することを目指しています。
未来はハイブリッドになります。一部の推論はフロントエンドで行われ、一部はオンチェーン計算で行われ、これによりコストと検証可能性の要因を考慮することができます。
ソース: IOSG
イントロダクション
Web3 と AI の組み合わせは、現在の暗号化領域で最も注目されているトピックの1つです。優秀な開発者たちが、暗号化世界にAIインフラストラクチャを構築し、スマートコントラクトに知性をもたらすことに取り組んでいます。AI Dappの構築は非常に複雑なタスクであり、開発者はデータ、モデル、計算能力、操作、展開、およびブロックチェーンとの統合など、幅広い範囲を扱う必要があります。
これらの要求に対処するため、Web3の創設者たちは、GPUネットワーク、コミュニティデータのタグ付け、コミュニティトレーニングモデル、検証可能なAI推論とトレーニング、エージェントストアなど、多くの初期解決策を開発してきました。しかし、この活気に満ちたインフラストラクチャの背景にもかかわらず、AIを実際に活用したりAI向けのアプリケーションを構築したりすることはほとんどありません。
開発者はAI Dappの開発チュートリアルを探していると、ネイティブな暗号化AIインフラに関連するチュートリアルが少ないことに気付きました。ほとんどのチュートリアルは単にフロントエンドでOpenAI APIを呼び出す内容に過ぎません。
ソース: IOSG Ventures
現在のアプリケーションは、ブロックチェーンの分散化と検証機能を十分に活用していませんが、この状況はすぐに変わるでしょう。現在、暗号化領域に焦点を当てた多くの人工知能インフラストラクチャがテストネットを開始し、今後6ヶ月以内に本格稼働する予定です。この研究では、暗号化領域の人工知能インフラストラクチャで利用可能な主要ツールについて詳しく説明します。暗号化世界のGPT-3.5の時代に備えましょう!
前述のRedPillは、私たちが参加した良好な導入点です。OpenAIには、GPT-4-vision、GPT-4-turbo、GPT-4oなど、世界レベルの強力なモデルがいくつかあり、先進的な人工知能Dappを構築するための最適な手段です。開発者は、オラクルマシンまたはフロントエンドインターフェイスを介してOpenAI APIを呼び出して、それをDappに統合することができます。
RedPillは、さまざまな開発者のOpenAI APIを1つのインターフェースで統合し、世界のユーザーに迅速かつ経済的かつ検証可能な人工知能サービスを提供し、トップクラスの人工知能モデルリソースの民主化を実現しています。RedPillのルーティングアルゴリズムは、開発者のリクエストを単一の貢献者に向けて定向します。APIリクエストは、その配信ネットワークを介して実行され、OpenAIからの制限を回避し、暗号化開発者が直面するいくつかの一般的な問題を解決します。
• 限制TPM(毎分トークン):新しいアカウントはトークンの使用が制限されており、人気のあるAIに依存するDappの需要を満たすことができません。
• 訪問制限:一部分のモデルは新規アカウントや特定の国のアクセスに制限を設けています。
同じリクエストコードを使用してホスト名を変更することで、開発者は低コスト、高い拡張性、制限なしで OpenAI モデルにアクセスできます。
OpenAIのAPIを使用するだけでなく、多くの開発者は自宅でモデルをホストすることも選択します。彼らはio.net、Aethir、Akashなどの人気のある分散GPUネットワークを利用して、独自のGPUクラスターを構築し、さまざまな強力な内部またはオープンソースモデルを展開および実行することができます。
個人または小規模データセンターの計算力を活用し、柔軟な構成、より多くのサーバーの場所の選択肢、およびより低いコストを提供する分散型GPUネットワークは、開発者が限られた予算内で簡単にAI関連の実験を行うことができます。ただし、分散型の性質により、このようなGPUネットワークには、機能性、利用可能性、およびデータプライバシの面で限界があります。
過去数ヶ月間、GPU の需要はBTCマイニングのブームを超え、非常に高まっています。この現象の原因は、以下の通りです:
ターゲット顧客の増加により、GPUネットワークは現在、AI開発者にサービスを提供しており、彼らの数は非常に多く、また忠実であり、暗号資産の価格変動の影響を受けません。
マイニング専用機器と比較して、分散化GPUはより多くのモデルと仕様を提供し、要求をよりよく満たします。特に大規模モデルの処理にはより高いVRAMが必要であり、小規模なタスクにはより適したGPUが選択できます。同時に、分散化GPUはエンドユーザーに近距離サービスを提供し、ドロップレイテンシーを低減します。
技術がますます成熟し、GPUネットワークは、高速ブロックチェーンのソラナ決済、Docker仮想化技術、Ray計算クラスターなどに依存しています。
投資収益に関しては、AI市場は拡大中であり、新しいアプリケーションやモデルの開発の機会が多くあります。H100モデルの予想収益率は60-70%であり、BTCマイニングはより複雑であり、生産量が限られています。
アイリスエナジー、コアサイエンティフィック、ビットディアなどのビットコインマイニング会社も、GPUネットワークのサポート、AIサービスの提供、H100などのAI用に設計されたGPUの積極的な購入を開始しています。
おすすめ:SLAにあまり重点を置いていないWeb2の開発者には、io.netはシンプルで使いやすい体験を提供し、コストパフォーマンスに優れた選択肢です。
これは暗号化されたAIの基盤です。将来的には数十億回のAI推論操作をサポートします。多くのAIレイヤー1またはレイヤー2は、オンチェーンでのネイティブなAI推論呼び出しを開発者に提供しています。市場のリーダーには、Ritual、Valence、Fetch.aiなどがあります。
これらのネットワークには、性能(レイテンシー、計算時間)、サポートされている検証可能なモデル、価格(オンチェーン消費コスト、推論コスト)、開発体験などの点で差異があります。
3.1 ターゲット
理想的状況では、開発者はどこからでも、どんな形式の証明でも、カスタムAI推論サービスに簡単にアクセスでき、統合プロセスにほとんど障害がない。推論ネットワークは、開発者が必要とするすべての基本的なサポートを提供し、オンデマンドでの生成と認証証明、推論計算、推論データのリレーと検証、Web2およびWeb3のインターフェースの提供、ワンクリックモデル展開、システム監視、クロスチェーンインタラクション操作、同期統合および定期実行などの機能を提供します。
これらの機能を活用することで、開発者は推論サービスを彼らの既存のスマートコントラクトにシームレスに統合することができます。たとえば、分散型金融取引ロボットを構築する際に、これらのロボットは特定の取引ペアの買い時や売り時を機械学習モデルで探し、対応する取引戦略を基盤となる取引プラットフォームで実行します。
完全に理想的な状態では、すべての基盤はクラウドでホストされます。開発者は、torchなどの一般的な形式で彼らの取引戦略モデルをアップロードするだけで、推論ネットワークはモデルを保存し、Web2およびWeb3のクエリに対応します。
すべてのモデル展開手順が完了したら、開発者は直接Web3 APIまたはスマートコントラクトを使用してモデル推論を呼び出すことができます。推論ネットワークはこれらの取引戦略を継続的に実行し、結果を基本スマートコントラクトにフィードバックします。開発者が管理するコミュニティ資金が多額である場合、推論結果の検証が必要です。推論結果を受け取ると、スマートコントラクトはそれに基づいて取引を行います。
3.1.1 非同期と同期
理論的には、非同期実行される推論操作はより優れたパフォーマンスをもたらす可能性がありますが、この方法は開発体験に不便を感じさせるかもしれません。非同期方式を採用する場合、開発者はまずタスクを推論ネットワークのスマートコントラクトに提出する必要があります。推論タスクが完了すると、推論ネットワークのスマートコントラクトが結果を返します。このプログラミングモデルでは、ロジックは推論呼び出しと推論結果処理の2つの部分に分割されます。
開発者にはネストされた推論呼び出しと大量の制御ロジックがある場合、状況はさらに悪化します。
非同期プログラミングモデルは既存のスマートコントラクトとの統合が困難である。これには、開発者が大量の追加コードを記述し、エラー処理および依存関係の管理を行う必要があります。一方、同期プログラミングは開発者にとってより直感的ですが、応答時間やブロックチェーンデザインに問題をもたらします。たとえば、入力データがブロック時間や価格のように急速に変動するデータである場合、推論が完了した後、データはもはや新鮮ではなく、特定の状況ではスマートコントラクトの実行にロールバックが必要となる可能性があります。過去の価格で取引を行う状況を想像してみてください。
ほとんどのAIインフラストラクチャは非同期処理を採用していますが、Valenceはこれらの問題を解決しようとしています。
3.2 現実
実際には、多くの新しい推論ネットワークはまだテスト段階にあります。例えばRitualネットワークです。彼らの公開文書によれば、これらのネットワークの機能は現時点では限定的です(検証、証明などの機能はまだオンラインになっていません)。彼らは現在、オンチェーンのAI計算をサポートするクラウドインフラストラクチャを提供していませんが、AI計算を自己ホストし、結果をオンチェーンに渡すためのフレームワークを提供しています。これはAIGC非代替性トークンを実行するためのアーキテクチャです。拡散モデルは非代替性トークンを生成し、それをArweaveにアップロードします。推論ネットワークはこのArweaveアドレスを使用して非代替性トークンをオンチェーンでミントします。
このプロセスは非常に複雑で、開発者は独自に Ritual ノードやStable Diffusion ノードなどのカスタムサービスロジックを備えたインフラストラクチャを展開およびメンテナンスする必要があります。また、NFTスマートコントラクトも必要です。お勧め:現在の推論ネットワークは、カスタムモデルの統合と展開に非常に複雑であり、この段階ではほとんどのネットワークが検証機能をサポートしていません。AI 技術をフロントエンドに適用することで、開発者にとって比較的簡単な選択肢が提供されます。検証機能が非常に必要な場合は、ZKML プロバイダーの Giza が良い選択肢です。
代理ネットワークは、ユーザーが簡単にカスタムプロキシを作成できるようにします。このようなネットワークは、タスクを自律的に実行し、相互にクラウドを交換し、ブロックチェーンネットワークと対話するエンティティまたはスマートコントラクトで構成されています。これには人の介入は必要ありません。これは主にLLMテクノロジーに対して設計されています。たとえば、イーサリアムについてのGPTチャットボットを提供することができます。このチャットボットは現在のところ限定的なツールであり、開発者は複雑なアプリケーションを基に開発することはできません。
しかし、将来的には、代理ネットワークは代理人にさまざまなツールを提供するようになります。知識だけでなく、外部APIの呼び出しや特定のタスクの実行能力なども含まれます。開発者は複数の代理を接続してワークフローを構築することができます。例えば、Solidityスマートコントラクトの作成には、プロトコル設計代理、Solidity開発代理、コードセキュリティレビュー代理、Solidityデプロイ代理など、複数の専門の代理が関与します。
私たちは、ヒントやシナリオを使用して、これらのエージェントの協力を調整しています。エージェントネットワークの例には、Flock.ai、Myshell、Theoriqなどがあります。 おすすめ:ほとんどのプロキシは機能が制限されています。特定のユースケースには、Web2プロキシがより優れたサービスを提供し、Langchain、Llamaindexなどの成熟したオーケストレーションツールを持っています。
5 プロキシネットワークと推論ネットワークの違い
エージェントネットワークはLLMに重点を置いており、Langchainなどのツールを提供して複数のエージェントを統合します。通常、開発者は機械学習モデルを自分で開発する必要はありません。代理ネットワークはモデルの開発と展開を簡素化しています。彼らは必要なエージェントとツールをリンクするだけです。ほとんどの場合、最終ユーザーはこれらのエージェントを直接使用します。
推論ネットワークは、代理ネットワークの基盤サポートです。開発者に低レベルのアクセス権限を提供します。通常、エンドユーザーは直接推論ネットワークを使用しません。開発者は、自分たちのモデルを展開する必要があります。これはLLMに限定されず、オフチェーンまたはオンチェーンのアクセスポイントを介して使用することができます。代理ネットワークと推論ネットワークは完全に独立した製品ではありません。私たちは、これら2つの機能が類似した基盤に依存しているため、いくつかの垂直統合製品を見始めています。彼らは両方の機能を提供するために同時に代理および推論機能を提供しています。
データセット:ブロックチェーンデータを機械学習で使用可能なデータセットに変換する方法は?機械学習の開発者が必要とするのは、より具体的で専門化されたデータです。たとえば、Gizaは、機械学習トレーニングに特化した高品質の分散型金融のデータセットを提供しています。理想的なデータは、単純な表データだけでなく、ブロックチェーンの世界の相互作用を説明することができるグラフデータを含むべきです。現時点では、この点で不十分です。現在、BagelやSaharaなどのプロジェクトが、個人データのプライバシーを保護しながら新しいデータセットを作成する個人を報酬として奨励することで、この問題を解決しようとしています。01928374656574839201
モデルのストレージ:一部のモデルは非常に大きいため、これらのモデルのストレージ、配布、およびバージョン管理はオンチェーン機械学習のパフォーマンスとコストに関わる重要な問題です。この領域では、FIL、AR、0gなどの先進的なプロジェクトが進展しています。
モデルトレーニング:分散かつ検証可能なモデルトレーニングは難しい課題です。Gensyn、Bittensor、Flock、Alloraなどは、顕著な進展を遂げています。モニタリング:モデルの推論はオンチェーンとオフチェーンの両方で発生するため、新しいインフラストラクチャが必要です。これにより、Web3の開発者はモデルの使用状況を追跡し、問題や偏差を早期に検知できます。適切なモニタリングツールを使用することで、Web3の機械学習開発者は適時調整し、モデルの精度を継続的に最適化することができます。
RAGインフラストラクチャー:分散型RAGには、新しいインフラストラクチャー環境が必要であり、ストレージ、埋め込み計算、ベクトルデータベースに高い要件があり、同時にデータのプライバシーと安全性を確保する必要があります。これは現在のWeb3 AIインフラストラクチャーとは大きく異なります。後者はFirstbatchとBagelなどの第三者に依存してRAGを完了する必要があります。
Web3に特化したモデル:すべてのモデルがWeb3のシナリオに適しているわけではありません。ほとんどの場合、価格予測、推奨などの具体的なアプリケーションに対応するために、モデルを再トレーニングする必要があります。AIインフラストラクチャの繁栄に伴い、将来的にはAIアプリケーションのためにより多くのWeb3ネイティブモデルが利用できることを期待しています。例えば、PondはブロックチェーンGNNを開発しており、価格予測、推奨、詐欺検出、マネーロンダリングなど、さまざまなシナリオで使用されます。
ネットワーク評価:エージェントの評価は、人間のフィードバックがない場合には容易ではありません。エージェント作成ツールの普及に伴い、市場には数多くのエージェントが登場するでしょう。それに応じて、これらのエージェントの能力を示すシステムが必要であり、特定の状況下でどのエージェントが最も優れたパフォーマンスを発揮するかをユーザーが判断できるように支援する必要があります。例えば、Neuronetsはこの分野の参加者の一つです。
コンセンサスメカニズム:AIタスクにおいては、PoSが必ずしも最適な選択肢ではありません。計算の複雑さ、検証の困難さ、および確定性の欠如は、PoSが直面する主な課題です。Bittensorは、機械学習モデルと出力に貢献するノードに報酬を与える新しいスマートなコンセンサスメカニズムを作り出しました。
現在、垂直統合の発展傾向が観察されています。基本的な計算層を構築することで、ネットワークはトレーニング、推論、およびプロキシネットワークサービスを含む多様な機械学習タスクをサポートできます。このモデルは、Web3の機械学習開発者に対してオールインワンのソリューションを提供することを目的としています。現在、オンチェーン推論は高コストかつ遅いものの、優れた検証性と(スマートコントラクトなどの)バックエンドシステムとのシームレスな統合を提供します。私は将来的にはハイブリッドアプリケーションに向かって進むと考えています。一部の推論処理はフロントエンドまたはオフチェーンで行われ、重要かつ意思決定的な推論はオンチェーンで完了します。このモデルは、モバイルデバイスで既に適用されています。モバイルデバイスの本質的な特性を活用することで、小規模なモデルをローカルで高速に実行し、より複雑なタスクをクラウド上でより大きなLLM処理を利用して移行することができます。
25063 人気度
40842 人気度
7158 人気度
29743128 人気度
10716461 人気度
11183566 人気度
10760191 人気度
9059644 人気度
13141820 人気度
IOSG:同質化されたWEB3 + AIインフラストラクチャーの行き先はどこにありますか?
著者: IOSG
TLの; 博士
Web3とAIの組み合わせが暗号化通貨界で注目される中、暗号化世界のAIインフラが活発に構築されていますが、AIを活用する実際のアプリケーションはあまりありません。AIインフラの均質化の問題が徐々に浮かび上がっています。最近、私たちが参加したRedPillの最初の資金調達は、より深い理解を引き起こしました。
AI Dappを構築する主要ツールキットには、分散化OpenAIアクセス、GPUネットワーク、推論ネットワーク、およびエージェントネットワークが含まれています。
GPUネットワークは、「BTCマイニング時代」よりも人気があると言われる理由は、AI市場がより大きく、急速かつ安定して成長しているためです。AIは毎日何百万ものアプリケーションをサポートしており、多様なGPUモデルとサーバーロケーションが必要です。技術も過去よりも成熟しており、対象となる顧客層も広範です。
推論ネットワークとエージェントネットワークは、類似の基盤を持っていますが、焦点は異なります。推論ネットワークは、経験豊富な開発者が自分のモデルを展開するために主に使用されますが、非LLMモデルを実行するためには必ずしもGPUが必要ではありません。一方、エージェントネットワークはLLMに焦点を当てており、開発者はモデルを持参する必要はなく、代わりに異なるエージェントをどのように接続するかやエンジニアリングのヒントにより注力しています。エージェントネットワークには常に高性能なGPUが必要です。
AI 基盤プロジェクトは非常に大きな約束をしており、引き続き新機能を展開しています。
多くのネイティブ暗号化プロジェクトはまだテストネットの段階にあり、安定性が低く、設定が複雑で、機能が制限されており、その安全性とプライバシー性を証明するにはまだ時間が必要です。
AI Dapp が大きなトレンドとなると仮定すると、監視、RAG 関連のインフラストラクチャ、Web3 ネイティブモデル、組み込みの暗号化ネイティブ API とデータの分散化プロキシ、ネットワークの評価など、まだ開発されていない多くの領域があります。
垂直統合は著しいトレンドです。インフラプロジェクトは、一括サービスを提供し、AI Dapp 開発者の作業を簡素化することを目指しています。
未来はハイブリッドになります。一部の推論はフロントエンドで行われ、一部はオンチェーン計算で行われ、これによりコストと検証可能性の要因を考慮することができます。
ソース: IOSG
イントロダクション
Web3 と AI の組み合わせは、現在の暗号化領域で最も注目されているトピックの1つです。優秀な開発者たちが、暗号化世界にAIインフラストラクチャを構築し、スマートコントラクトに知性をもたらすことに取り組んでいます。AI Dappの構築は非常に複雑なタスクであり、開発者はデータ、モデル、計算能力、操作、展開、およびブロックチェーンとの統合など、幅広い範囲を扱う必要があります。
これらの要求に対処するため、Web3の創設者たちは、GPUネットワーク、コミュニティデータのタグ付け、コミュニティトレーニングモデル、検証可能なAI推論とトレーニング、エージェントストアなど、多くの初期解決策を開発してきました。しかし、この活気に満ちたインフラストラクチャの背景にもかかわらず、AIを実際に活用したりAI向けのアプリケーションを構築したりすることはほとんどありません。
開発者はAI Dappの開発チュートリアルを探していると、ネイティブな暗号化AIインフラに関連するチュートリアルが少ないことに気付きました。ほとんどのチュートリアルは単にフロントエンドでOpenAI APIを呼び出す内容に過ぎません。
ソース: IOSG Ventures
現在のアプリケーションは、ブロックチェーンの分散化と検証機能を十分に活用していませんが、この状況はすぐに変わるでしょう。現在、暗号化領域に焦点を当てた多くの人工知能インフラストラクチャがテストネットを開始し、今後6ヶ月以内に本格稼働する予定です。この研究では、暗号化領域の人工知能インフラストラクチャで利用可能な主要ツールについて詳しく説明します。暗号化世界のGPT-3.5の時代に備えましょう!
前述のRedPillは、私たちが参加した良好な導入点です。OpenAIには、GPT-4-vision、GPT-4-turbo、GPT-4oなど、世界レベルの強力なモデルがいくつかあり、先進的な人工知能Dappを構築するための最適な手段です。開発者は、オラクルマシンまたはフロントエンドインターフェイスを介してOpenAI APIを呼び出して、それをDappに統合することができます。
RedPillは、さまざまな開発者のOpenAI APIを1つのインターフェースで統合し、世界のユーザーに迅速かつ経済的かつ検証可能な人工知能サービスを提供し、トップクラスの人工知能モデルリソースの民主化を実現しています。RedPillのルーティングアルゴリズムは、開発者のリクエストを単一の貢献者に向けて定向します。APIリクエストは、その配信ネットワークを介して実行され、OpenAIからの制限を回避し、暗号化開発者が直面するいくつかの一般的な問題を解決します。
• 限制TPM(毎分トークン):新しいアカウントはトークンの使用が制限されており、人気のあるAIに依存するDappの需要を満たすことができません。
• 訪問制限:一部分のモデルは新規アカウントや特定の国のアクセスに制限を設けています。
同じリクエストコードを使用してホスト名を変更することで、開発者は低コスト、高い拡張性、制限なしで OpenAI モデルにアクセスできます。
OpenAIのAPIを使用するだけでなく、多くの開発者は自宅でモデルをホストすることも選択します。彼らはio.net、Aethir、Akashなどの人気のある分散GPUネットワークを利用して、独自のGPUクラスターを構築し、さまざまな強力な内部またはオープンソースモデルを展開および実行することができます。
個人または小規模データセンターの計算力を活用し、柔軟な構成、より多くのサーバーの場所の選択肢、およびより低いコストを提供する分散型GPUネットワークは、開発者が限られた予算内で簡単にAI関連の実験を行うことができます。ただし、分散型の性質により、このようなGPUネットワークには、機能性、利用可能性、およびデータプライバシの面で限界があります。
過去数ヶ月間、GPU の需要はBTCマイニングのブームを超え、非常に高まっています。この現象の原因は、以下の通りです:
ターゲット顧客の増加により、GPUネットワークは現在、AI開発者にサービスを提供しており、彼らの数は非常に多く、また忠実であり、暗号資産の価格変動の影響を受けません。
マイニング専用機器と比較して、分散化GPUはより多くのモデルと仕様を提供し、要求をよりよく満たします。特に大規模モデルの処理にはより高いVRAMが必要であり、小規模なタスクにはより適したGPUが選択できます。同時に、分散化GPUはエンドユーザーに近距離サービスを提供し、ドロップレイテンシーを低減します。
技術がますます成熟し、GPUネットワークは、高速ブロックチェーンのソラナ決済、Docker仮想化技術、Ray計算クラスターなどに依存しています。
投資収益に関しては、AI市場は拡大中であり、新しいアプリケーションやモデルの開発の機会が多くあります。H100モデルの予想収益率は60-70%であり、BTCマイニングはより複雑であり、生産量が限られています。
アイリスエナジー、コアサイエンティフィック、ビットディアなどのビットコインマイニング会社も、GPUネットワークのサポート、AIサービスの提供、H100などのAI用に設計されたGPUの積極的な購入を開始しています。
おすすめ:SLAにあまり重点を置いていないWeb2の開発者には、io.netはシンプルで使いやすい体験を提供し、コストパフォーマンスに優れた選択肢です。
これは暗号化されたAIの基盤です。将来的には数十億回のAI推論操作をサポートします。多くのAIレイヤー1またはレイヤー2は、オンチェーンでのネイティブなAI推論呼び出しを開発者に提供しています。市場のリーダーには、Ritual、Valence、Fetch.aiなどがあります。
これらのネットワークには、性能(レイテンシー、計算時間)、サポートされている検証可能なモデル、価格(オンチェーン消費コスト、推論コスト)、開発体験などの点で差異があります。
3.1 ターゲット
理想的状況では、開発者はどこからでも、どんな形式の証明でも、カスタムAI推論サービスに簡単にアクセスでき、統合プロセスにほとんど障害がない。推論ネットワークは、開発者が必要とするすべての基本的なサポートを提供し、オンデマンドでの生成と認証証明、推論計算、推論データのリレーと検証、Web2およびWeb3のインターフェースの提供、ワンクリックモデル展開、システム監視、クロスチェーンインタラクション操作、同期統合および定期実行などの機能を提供します。
これらの機能を活用することで、開発者は推論サービスを彼らの既存のスマートコントラクトにシームレスに統合することができます。たとえば、分散型金融取引ロボットを構築する際に、これらのロボットは特定の取引ペアの買い時や売り時を機械学習モデルで探し、対応する取引戦略を基盤となる取引プラットフォームで実行します。
完全に理想的な状態では、すべての基盤はクラウドでホストされます。開発者は、torchなどの一般的な形式で彼らの取引戦略モデルをアップロードするだけで、推論ネットワークはモデルを保存し、Web2およびWeb3のクエリに対応します。
すべてのモデル展開手順が完了したら、開発者は直接Web3 APIまたはスマートコントラクトを使用してモデル推論を呼び出すことができます。推論ネットワークはこれらの取引戦略を継続的に実行し、結果を基本スマートコントラクトにフィードバックします。開発者が管理するコミュニティ資金が多額である場合、推論結果の検証が必要です。推論結果を受け取ると、スマートコントラクトはそれに基づいて取引を行います。
3.1.1 非同期と同期
理論的には、非同期実行される推論操作はより優れたパフォーマンスをもたらす可能性がありますが、この方法は開発体験に不便を感じさせるかもしれません。非同期方式を採用する場合、開発者はまずタスクを推論ネットワークのスマートコントラクトに提出する必要があります。推論タスクが完了すると、推論ネットワークのスマートコントラクトが結果を返します。このプログラミングモデルでは、ロジックは推論呼び出しと推論結果処理の2つの部分に分割されます。
開発者にはネストされた推論呼び出しと大量の制御ロジックがある場合、状況はさらに悪化します。
非同期プログラミングモデルは既存のスマートコントラクトとの統合が困難である。これには、開発者が大量の追加コードを記述し、エラー処理および依存関係の管理を行う必要があります。一方、同期プログラミングは開発者にとってより直感的ですが、応答時間やブロックチェーンデザインに問題をもたらします。たとえば、入力データがブロック時間や価格のように急速に変動するデータである場合、推論が完了した後、データはもはや新鮮ではなく、特定の状況ではスマートコントラクトの実行にロールバックが必要となる可能性があります。過去の価格で取引を行う状況を想像してみてください。
ほとんどのAIインフラストラクチャは非同期処理を採用していますが、Valenceはこれらの問題を解決しようとしています。
3.2 現実
実際には、多くの新しい推論ネットワークはまだテスト段階にあります。例えばRitualネットワークです。彼らの公開文書によれば、これらのネットワークの機能は現時点では限定的です(検証、証明などの機能はまだオンラインになっていません)。彼らは現在、オンチェーンのAI計算をサポートするクラウドインフラストラクチャを提供していませんが、AI計算を自己ホストし、結果をオンチェーンに渡すためのフレームワークを提供しています。これはAIGC非代替性トークンを実行するためのアーキテクチャです。拡散モデルは非代替性トークンを生成し、それをArweaveにアップロードします。推論ネットワークはこのArweaveアドレスを使用して非代替性トークンをオンチェーンでミントします。
このプロセスは非常に複雑で、開発者は独自に Ritual ノードやStable Diffusion ノードなどのカスタムサービスロジックを備えたインフラストラクチャを展開およびメンテナンスする必要があります。また、NFTスマートコントラクトも必要です。お勧め:現在の推論ネットワークは、カスタムモデルの統合と展開に非常に複雑であり、この段階ではほとんどのネットワークが検証機能をサポートしていません。AI 技術をフロントエンドに適用することで、開発者にとって比較的簡単な選択肢が提供されます。検証機能が非常に必要な場合は、ZKML プロバイダーの Giza が良い選択肢です。
代理ネットワークは、ユーザーが簡単にカスタムプロキシを作成できるようにします。このようなネットワークは、タスクを自律的に実行し、相互にクラウドを交換し、ブロックチェーンネットワークと対話するエンティティまたはスマートコントラクトで構成されています。これには人の介入は必要ありません。これは主にLLMテクノロジーに対して設計されています。たとえば、イーサリアムについてのGPTチャットボットを提供することができます。このチャットボットは現在のところ限定的なツールであり、開発者は複雑なアプリケーションを基に開発することはできません。
しかし、将来的には、代理ネットワークは代理人にさまざまなツールを提供するようになります。知識だけでなく、外部APIの呼び出しや特定のタスクの実行能力なども含まれます。開発者は複数の代理を接続してワークフローを構築することができます。例えば、Solidityスマートコントラクトの作成には、プロトコル設計代理、Solidity開発代理、コードセキュリティレビュー代理、Solidityデプロイ代理など、複数の専門の代理が関与します。
私たちは、ヒントやシナリオを使用して、これらのエージェントの協力を調整しています。エージェントネットワークの例には、Flock.ai、Myshell、Theoriqなどがあります。 おすすめ:ほとんどのプロキシは機能が制限されています。特定のユースケースには、Web2プロキシがより優れたサービスを提供し、Langchain、Llamaindexなどの成熟したオーケストレーションツールを持っています。
5 プロキシネットワークと推論ネットワークの違い
エージェントネットワークはLLMに重点を置いており、Langchainなどのツールを提供して複数のエージェントを統合します。通常、開発者は機械学習モデルを自分で開発する必要はありません。代理ネットワークはモデルの開発と展開を簡素化しています。彼らは必要なエージェントとツールをリンクするだけです。ほとんどの場合、最終ユーザーはこれらのエージェントを直接使用します。
推論ネットワークは、代理ネットワークの基盤サポートです。開発者に低レベルのアクセス権限を提供します。通常、エンドユーザーは直接推論ネットワークを使用しません。開発者は、自分たちのモデルを展開する必要があります。これはLLMに限定されず、オフチェーンまたはオンチェーンのアクセスポイントを介して使用することができます。代理ネットワークと推論ネットワークは完全に独立した製品ではありません。私たちは、これら2つの機能が類似した基盤に依存しているため、いくつかの垂直統合製品を見始めています。彼らは両方の機能を提供するために同時に代理および推論機能を提供しています。
データセット:ブロックチェーンデータを機械学習で使用可能なデータセットに変換する方法は?機械学習の開発者が必要とするのは、より具体的で専門化されたデータです。たとえば、Gizaは、機械学習トレーニングに特化した高品質の分散型金融のデータセットを提供しています。理想的なデータは、単純な表データだけでなく、ブロックチェーンの世界の相互作用を説明することができるグラフデータを含むべきです。現時点では、この点で不十分です。現在、BagelやSaharaなどのプロジェクトが、個人データのプライバシーを保護しながら新しいデータセットを作成する個人を報酬として奨励することで、この問題を解決しようとしています。01928374656574839201
モデルのストレージ:一部のモデルは非常に大きいため、これらのモデルのストレージ、配布、およびバージョン管理はオンチェーン機械学習のパフォーマンスとコストに関わる重要な問題です。この領域では、FIL、AR、0gなどの先進的なプロジェクトが進展しています。
モデルトレーニング:分散かつ検証可能なモデルトレーニングは難しい課題です。Gensyn、Bittensor、Flock、Alloraなどは、顕著な進展を遂げています。モニタリング:モデルの推論はオンチェーンとオフチェーンの両方で発生するため、新しいインフラストラクチャが必要です。これにより、Web3の開発者はモデルの使用状況を追跡し、問題や偏差を早期に検知できます。適切なモニタリングツールを使用することで、Web3の機械学習開発者は適時調整し、モデルの精度を継続的に最適化することができます。
RAGインフラストラクチャー:分散型RAGには、新しいインフラストラクチャー環境が必要であり、ストレージ、埋め込み計算、ベクトルデータベースに高い要件があり、同時にデータのプライバシーと安全性を確保する必要があります。これは現在のWeb3 AIインフラストラクチャーとは大きく異なります。後者はFirstbatchとBagelなどの第三者に依存してRAGを完了する必要があります。
Web3に特化したモデル:すべてのモデルがWeb3のシナリオに適しているわけではありません。ほとんどの場合、価格予測、推奨などの具体的なアプリケーションに対応するために、モデルを再トレーニングする必要があります。AIインフラストラクチャの繁栄に伴い、将来的にはAIアプリケーションのためにより多くのWeb3ネイティブモデルが利用できることを期待しています。例えば、PondはブロックチェーンGNNを開発しており、価格予測、推奨、詐欺検出、マネーロンダリングなど、さまざまなシナリオで使用されます。
ネットワーク評価:エージェントの評価は、人間のフィードバックがない場合には容易ではありません。エージェント作成ツールの普及に伴い、市場には数多くのエージェントが登場するでしょう。それに応じて、これらのエージェントの能力を示すシステムが必要であり、特定の状況下でどのエージェントが最も優れたパフォーマンスを発揮するかをユーザーが判断できるように支援する必要があります。例えば、Neuronetsはこの分野の参加者の一つです。
コンセンサスメカニズム:AIタスクにおいては、PoSが必ずしも最適な選択肢ではありません。計算の複雑さ、検証の困難さ、および確定性の欠如は、PoSが直面する主な課題です。Bittensorは、機械学習モデルと出力に貢献するノードに報酬を与える新しいスマートなコンセンサスメカニズムを作り出しました。
現在、垂直統合の発展傾向が観察されています。基本的な計算層を構築することで、ネットワークはトレーニング、推論、およびプロキシネットワークサービスを含む多様な機械学習タスクをサポートできます。このモデルは、Web3の機械学習開発者に対してオールインワンのソリューションを提供することを目的としています。現在、オンチェーン推論は高コストかつ遅いものの、優れた検証性と(スマートコントラクトなどの)バックエンドシステムとのシームレスな統合を提供します。私は将来的にはハイブリッドアプリケーションに向かって進むと考えています。一部の推論処理はフロントエンドまたはオフチェーンで行われ、重要かつ意思決定的な推論はオンチェーンで完了します。このモデルは、モバイルデバイスで既に適用されています。モバイルデバイスの本質的な特性を活用することで、小規模なモデルをローカルで高速に実行し、より複雑なタスクをクラウド上でより大きなLLM処理を利用して移行することができます。