人工知能 | Operaブラウザが主要なAIモデルを統合、ローカルダウンロードとオフライン利用を実現

robot
概要作成中

主要なブラウザ企業のOperaは、開発者向けのストリームで、約50のモデルファミリーから150のローカルLLM (大規模言語モデル)バリアントをOpera Oneブラウザに実験的に追加していると発表しました。

GPT (生成的事前学習変換器)モデルなどのLLMは、OpenAIによって開発された高度な人工知能システムで、大量のテキストデータをもとに学習し、人間のようなテキストを理解・生成します。これらは、テキスト生成、翻訳、要約などのさまざまな自然言語処理タスクに使用されます。

Operaによると、これはローカルLLMが主要なブラウザから簡単にアクセス・管理できるのは初めてのことだとしています。ローカルAIモデルは、OperaのオンラインAria AIサービスに付随する無料の追加機能です。サポートされているローカルLLMには次のものがあります:

  • MetaのLlama
  • Vicuna
  • GoogleのGemma
  • Mistral AIのMixtral

「この方法でローカルLLMを導入することで、Operaは急速に進展するローカルAI分野内での体験構築やノウハウの探索を開始できる」と、Operaのブラウザ・ゲーミング担当エグゼクティブバイスプレジデントのKrystian Kolondraは述べています。

Operaは、ローカル大規模言語モデルを使用することで、ユーザーのデータがデバイス内に保持され、情報をサーバーに送信することなく生成AIを利用できると述べました。

人工知能の議論の中で浮上している問題の一つはデータプライバシーであり、これを背景に、Fetch.ai、SingularityNET (SNET)、Ocean Protocolの3つの主要な分散型AIプロジェクトが統合し、分散型AIエコシステムを構築する決定を下しました。

「現時点で、Opera Oneの開発者ユーザーは、自分の入力を処理するモデルを選択する機会を得ています。モデルをテストするには、最新のOpera Developerにアップグレードし、いくつかの手順を踏んで新機能を有効にする必要があります」と、Operaは述べています。

「ローカルLLMを選択すると、そのモデルがユーザーのマシンにダウンロードされます。通常、各バリアントには2〜10GBのローカルストレージスペースが必要であり、その後、ユーザーが新しいチャットを開始するか、Ariaを再び有効にしない限り、OperaのネイティブブラウザAIであるAriaの代わりに使用されます」

最新の投稿やアップデートについてはTwitterをフォローしてください

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン