OpenRouterが動画生成APIをリリース、1つのインターフェースでSora 2、Veo 3.1、Seedanceなどの主流モデルを呼び出し

robot
概要作成中

ME News ニュース、4月16日(UTC+8)、動察Beating監測によると、AIモデル統合プラットフォームOpenRouterが正式に動画生成APIをリリースし、最初のサポートはテキストから動画、画像から動画の生成で、Seedance 2.0/1.5、Veo 3.1、Wan 2.7/2.6、Sora 2 Proに接続されており、今後も拡充予定です。
動画生成分野のAPIの断片化はテキストモデルよりもはるかに深刻です:各社のリクエストフォーマットが異なり、パラメータ命名も異なり、課金単位も異なり、同じモデルファミリーの異なる能力(テキストから動画、画像から動画、参考キャラクター生成)もしばしば異なるエンドポイントに対応しています。
OpenRouterのアプローチは、上層に統一されたスキーマを構築し、リクエストパラメータに基づいて自動的に正しいエンドポイントにルーティングすることです。
画像が添付されていれば画像生成動画に、参考キャラクターが指定されていればキャラクター一貫性エンドポイントに行き、開発者は底層の違いを気にする必要がありません。
パラメータの正規化は、落とし穴になりやすい細部もカバーしています。
例えば、Veo 3.1は4秒、6秒、8秒のクリップをサポートし、Wan 2.6は5秒または10秒をサポートし、間違った長さを入力すると直接エラーになります。
OpenRouterはモデル能力のクエリエンドポイント /api/v1/videos/models\ を提供し、各モデルがサポートする解像度、長さ、アスペクト比、価格設定、モデル固有のパラメータを返します。
開発者やプログラムエージェントは呼び出し前に一度確認することで試行錯誤を避けられます。
動画生成は時間がかかるため、APIは非同期モードを採用しています:プロンプトを送信するとタスクIDが返され、完了後に動画を取得します。
OpenRouterはまた、多モーダルワークフローのデモアプリもオープンソース化しており、LLMによる詳細なプロンプト生成、画像モデルによるキャラクター生成、動画モデルによるシーン生成の連携フローを展示しています。
これが動画生成の統一ルーティング後の最も直接的な価値です:開発者は同じAPI下でテキスト、画像、動画モデルを組み合わせて使用でき、各社のSDKに個別に接続する必要がありません。
(出典:BlockBeats)

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし