そして、この繁栄するインフラの背景には、実際には AI を利用するか、AI によって構築されたアプリケーションは多くありません。開発者は AI dApp の開発チュートリアルを探す際、これらのネイティブな暗号化 AI インフラに関連するチュートリアルは多くありません。多くのチュートリアルは、フロントエンドで OpenAI API を呼び出す方法に関するものです。
OpenAI の API を使用することに加えて、多くの開発者は自宅でモデルをホストすることを選択します。 io.net、Aethir、Akash、その他の一般的なネットワークなどの分散型GPUネットワークを利用して、独自のGPUクラスターを構築し、さまざまな強力な内部モデルまたは社内モデルをデプロイして実行できます。
IOSG: Web3+AIの次の急成長点はどこですか?
著者: IOSG Ventures
Zhenyang@Upshot、Fran@Giza、Ashely@Neuronets、Matt@Valence、Dylan@Pondからのフィードバックをありがとう。
本研究では、開発者にとって最も重要な人工知能の分野と、Web3および人工知能の分野で次に爆発する可能性があるものについて探究します。
新しい研究視点を共有する前に、まずRedPillの最初の500万ドルの資金調達に参加できたことをうれしく思います。また、RedPillとともに成長することを期待しています!
TL; 博士
Web3とAIの組み合わせが暗号化通貨界で注目されるにつれ、暗号化世界のAIインフラの構築が活発化していますが、実際にAIを利用したり、AIによって構築されたアプリケーションはロングではありません。AIインフラの同質化の問題が次第に顕在化しています。最近、私たちが参加したRedPillの最初の資金調達は、より深い理解を引き起こしました。
出典:IOSG
イントロダクション
ソース:IOSGVentures
1. RedPill:OpenAIの分散型認証
前の投稿で言及したように、私たちの参加したRedPillは良い導入ポイントです。
OpenAIは、GPT-4-vision、GPT-4-turbo、GPT-4oなどの世界クラスの強力なモデルを備えており、先進的な人工知能Dappを構築するための最適な選択肢です。
開発者は、オラクルマシンまたはフロントエンドインターフェイスを介してOpenAI APIを呼び出し、dAppに統合することができます。
RedPillは、異なる開発者のOpenAI APIを1つのインターフェースに統合し、世界中のユーザーに高速で経済的かつ検証可能な人工知能サービスを提供し、トップクラスの人工知能モデルリソースの民主化を実現しています。RedPillのルーティングアルゴリズムは、開発者のリクエストを単一の貢献者に誘導します。APIリクエストは、その配布ネットワークを介して実行され、OpenAIからの可能性のある制限を回避し、暗号化された開発者が直面するいくつかの一般的な問題を解決しています。
同じリクエストコードを使用しても、ホスト名を変更することで、開発者は低コストで、高い拡張性と制限なしで OpenAI モデルにアクセスできます。
2. GPU ネットワーク
OpenAI の API を使用することに加えて、多くの開発者は自宅でモデルをホストすることを選択します。 io.net、Aethir、Akash、その他の一般的なネットワークなどの分散型GPUネットワークを利用して、独自のGPUクラスターを構築し、さまざまな強力な内部モデルまたは社内モデルをデプロイして実行できます。
このような分散化GPUネットワークは、個人や小規模データセンターの計算リソースを活用し、柔軟な構成、よりロングなサーバーの位置選択、そしてより低コストを提供し、開発者が限られた予算内でAI関連の実験を容易に行えるようにします。しかし、分散化の性質から、このようなGPUネットワークには機能性、利用可能性、およびデータプライバシーの面で一定の制約がまだ存在しています。
過去数ヶ月間、GPUの需要が爆発的に増加し、以前のBTCマイニングブームを超えました。この現象の原因には、次のようなものがあります:
推奨:SLAにあまり重点を置かないWeb2開発者にとって、io.netは使いやすくシンプルな体験を提供し、コストパフォーマンスの高い選択肢です。
3. 推論ネットワーク
これは暗号化原生 AI 基盤の中核です。将来的には数十億回のAI推論操作をサポートします。多くのAI layer1またはlayer2は、オンチェーンでの原生のAI推論の呼び出し機能を開発者に提供しています。市場リーダーにはRitual、Valence、Fetch.aiなどが含まれます。
これらのネットワークは以下の点で異なります:
3.1 ターゲット
理想的な状況は、開発者がどこからでも、任意の形式の証明を通じて、カスタムのAI推論サービスに簡単にアクセスし、統合プロセスにほとんど障害がないことです。
推論ネットワークは、開発者が必要とするすべての基本サポートを提供します。これには、オンデマンドでの生成と認証証明、推論計算、推論データのリレーと検証、Web2およびWeb3のインターフェースの提供、ワンクリックモデルデプロイ、システムモニタリング、クロスチェーンインタラクション操作、同期統合、定期実行などの機能が含まれます。
ソース:IOSGVentures
これらの機能を活用することで、開発者は推論サービスを既存のスマートコントラクトにシームレスに統合することができます。たとえば、分散型金融取引ボットを構築する際に、これらのボットは機械学習モデルを使用して特定の取引ペアの売買タイミングを見つけ、対応する取引戦略を基本取引プラットフォームで実行します。
完全な理想的な状態では、すべての基本構造がクラウドホストされています。開発者は、取引戦略モデルを一般的な形式(例えばtorchなど)でアップロードするだけで、推論ネットワークがそれを保存し、Web2およびWeb3のクエリにモデルを提供します。
すべてのモデルデプロイメント手順が完了した後、開発者はWeb3 APIまたはスマートコントラクトを介してモデル推論を直接呼び出すことができます。推論ネットワークはこれらのトランザクション戦略を継続的に実行し、結果を基礎スマートコントラクトにフィードバックします。開発者が管理するコミュニティ資金が大規模な場合、推論結果の検証も必要です。推論結果を受け取ると、スマートコントラクトはこれらの結果に基づいて取引を行います。
ソース:IOSGVentures
3.1.1 非同期と同期
理論的には、非同期の推論操作はより良いパフォーマンスをもたらす可能性がありますが、この方法は開発体験に不便を感じさせることがあります。
非同期方式での使用時、開発者はまずタスクを推論ネットワークのスマートコントラクトに提出する必要があります。推論タスクが完了すると、推論ネットワークのスマートコントラクトは結果を返します。このプログラミングモードでは、ロジックは推論呼び出しと推論結果処理の2つの部分に分かれています。
ソース:IOSGVentures
開発者がネストされた推論呼び出しや大量の制御ロジックを持っている場合、状況はさらに悪化します。
ソース:IOSGVentures
非同期プログラミングモードは既存のスマートコントラクトに統合することが難しい。これには、開発者が大量の追加コードを記述し、エラー処理や依存関係の管理を行う必要があります。
相対的に、同期プログラミングは開発者にとってより直感的ですが、レスポンス時間とブロックチェーンの設計に問題を引き起こします。たとえば、入力データがブロックタイムや価格のような急激な変化のあるデータである場合、推論が完了した後、データはもはや新鮮ではなく、特定の状況でスマートコントラクトの実行をロールバックする必要がある可能性があります。時代遅れの価格で取引を行うことを想像してみてください。
ソース:IOSGVentures
ほとんどのAIインフラストラクチャは非同期処理を採用していますが、Valenceはこれらの問題を解決しようとしています。
3.2 現実
実際には、多くの新しい推論ネットワークはまだテスト段階にあります。例えば、Ritualネットワークなどです。彼らの公式文書によれば、これらのネットワークは現在は限定的な機能しか持っていません(検証、証明などの機能はまだオンラインになっていません)。彼らは現在、オンチェーンAI計算をサポートするためのクラウドインフラストラクチャを提供していませんが、自己ホスティングのAI計算および結果をオンチェーンに伝達するためのフレームワークを提供しています。
これはAIGC(01928374656574839201)を実行する非代替性トークンのシステムアーキテクチャです。拡散モデルは非代替性トークンを生成し、それをArweaveにアップロードします。推論ネットワークはこのArweaveアドレスを使用してオンチェーンでその非代替性トークンをミントします。
ソース:IOSGVentures
このプロセスは非常に複雑で、開発者はカスタムサービスロジックを備えたRitualノード、Stable Diffusionノード、およびNFTスマートコントラクトなど、ほとんどのインフラストラクチャを自分で展開およびメンテナンスする必要があります。
推奨: 現在の推論ネットワークはカスタムモデルの統合と展開がかなり複雑であり、この段階ではほとんどのネットワークが検証機能をサポートしていません。AI 技術をフロントエンドに適用することで、開発者にとって比較的簡単な選択肢が提供されます。検証機能が非常に必要な場合、ZKML プロバイダーの Giza が良い選択肢となります。
4. プロキシ ネットワーク
代理ネットワークでは、ユーザーは簡単に代理をカスタマイズできます。このようなネットワークは、タスクを自律的に実行し、相互にクラウドを交換し、ブロックチェーンネットワークとやり取りするエンティティまたはスマートコントラクトで構成されており、人間の直接的な干渉は不要です。これは主にLLM技術を対象としています。たとえば、イーサリアムに関するGPTチャットボットを提供できます。このようなチャットボットのツールは現在、かなり限られており、開発者はまだ複雑なアプリケーションを開発することができません。
ソース:IOSGVentures
しかし、将来、エージェントネットワークは、知識だけでなく、外部APIの呼び出しや特定のタスクの実行など、よりロングなツールをエージェントに提供します。開発者は、ロング個のエージェントを接続してワークフローを構築することができます。例えば、Solidityスマートコントラクトの作成には、プロトコルデザインエージェント、Solidity開発エージェント、コードセキュリティレビューエージェント、Solidityデプロイエージェントなど、ロング個のエージェントが必要です。
ソース:IOSGVentures
私たちは、ヒントとシナリオを使用してこれらのエージェントの協力を調整します。
代理ネットワークの例には、Flock.ai、Myshell、Theoriqなどがあります。
推奨:現在のほとんどのプロキシは機能が比較的限られています。特定のユースケースでは、Web2プロキシがより優れたサービスを提供し、Langchain、Llamaindexなどの成熟した編成ツールを持っています。
5. プロキシネットワークと推論ネットワークの違い
代理ネットワークは、Langchainなどのツールを統合するためにLLMに重点を置いており、通常、開発者は機械学習モデルを自分で開発する必要はありません。代理ネットワークはモデルの開発と展開のプロセスを簡素化しています。必要な代理とツールをリンクするだけです。多くの場合、最終ユーザーはこれらの代理を直接使用します。
推論ネットワークは、エージェントネットワークの基盤サポートです。開発者には、より低レベルのアクセス権が提供されます。通常、エンドユーザーは直接推論ネットワークを使用しません。開発者は、自分のモデルを展開する必要があります(これはLLMに限定されず)。また、オフチェーンまたはオンチェーンのアクセスポイントを使用してそれらにアクセスすることもできます。
プロキシネットワークと推論ネットワークは完全に独立した製品ではありません。私たちは、いくつかの垂直統合された製品が出てきているのを見ています。これらの機能は類似の基盤インフラストラクチャに依存しているため、プロキシと推論の両方の機能を提供しています。
6.新しい機会の地
モデルの推論、トレーニング、およびエージェントネットワークに加えて、web3 領域にはさらに多くの探索価値のある新しい領域があります:
7. 今後の見通し
私たちは現在、垂直統合の発展傾向を観察しています。基本的な計算レイヤーを構築することにより、ネットワークはトレーニング、推論、およびプロキシネットワークサービスを含むさまざまな機械学習タスクをサポートできます。このモデルは、Web3の機械学習開発者に対してオールインワンのソリューションを提供することを目指しています。
現在、オンチェーン推論はコストが高くて速度が遅いですが、優れた検証可能性とバックエンドシステム(例えばスマートコントラクト)とのシームレスな統合を提供しています。将来はハイブリッドアプリケーションの方向に進むと思います。一部の推論処理はフロントエンドまたはオフチェーンで行われ、重要な意思決定的な推論はオンチェーンで行われます。このモデルはすでにモバイルデバイスで使用されています。モバイルデバイスの固有の特性を活用することで、ローカルで小規模なモデルを迅速に実行し、より複雑なタスクをクラウド上で実行するLLM処理を利用できます。