前OpenAI研究者がFlipbookのプロトタイプを公開:HTMLをスキップし、AIビデオモデルで各ピクセルを直接生成

MEニュース 4月23日(UTC+8)、動察Beatingの監視によると、元OpenAI研究員のZain ShahとチームはFlipbookを発表しました。これはAIモデルを直接使用して画面のピクセルを生成する実験的なプロトタイプで、HTMLやCSSなどの従来のウェブ技術に取って代わります。ユーザーが見る各「ページ」はAI生成の画像であり、画像の任意の部分をクリックすると新しい画像が生成されて深く進むことができます。全体のインターフェースにはHTMLコードも固定リンクも事前定義されたボタンもなく、文字も画像のピクセルです。動画モードはイスラエルの企業LightricksのオープンソースDiT(拡散Transformer)動画生成モデルLTX Studioを基にしており、最適化により1080p 24fpsでWebSocketを通じてリアルタイムストリーミングされ、バックエンドはModal LabsのサーバーレスGPUを使用します。Shahは現在のFlipbookの機能は限定的で、チームは視覚的解釈を中心に設計していると述べていますが、より大きな方向性も示しています。モデルがより正確で状態を持つようになれば、将来的には構造化されたUIやプログラミングシーンに拡張できるとしています。Shahは以前OpenAIでAIとロボット研究に従事し、その後サムスンのクリエイティブテクノロジーエキスパートを務め、YC S13の卒業生でもあります。チームメンバーにはHumaneやSlackの元エンジニアEddie Jiao、Appleの元エンジニアDrew O’Carrも含まれます。(出典:BlockBeats)

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン