人工知能 | Operaブラウザが主要なAIモデルをローカルダウンロードおよびオフライン使用のために統合

robot
概要作成中

主要なブラウザ会社であるOperaは、約50のモデルファミリーからの150のローカルLLM (Large Language Model)のバリアントに対する実験的なサポートをOpera Oneブラウザの開発者ストリームに追加することを発表しました。

LLMは、OpenAIによって開発されたGPT (生成的事前学習変換器)モデルのように、大量のテキストデータで訓練された高度な人工知能システムです。これらは、テキスト生成、翻訳、要約などのさまざまな自然言語処理タスクに使用されます。

Operaによれば、これは主要なブラウザから組み込み機能を通じてローカルLLMに簡単にアクセスし管理できる初めての機会です。ローカルAIモデルは、OperaのオンラインAria AIサービスへの補完的な追加です。サポートされているローカルLLMには次のものがあります:

* メタのラマ

  • ビクーニャ
  • Google のジェマ
  • Mistral AIのMixtral

*「このようにローカルLLMを導入することで、Operaは急速に進化するローカルAI分野での体験を構築する方法を探り始めることができます。」*とOperaのブラウザおよびゲーム担当EVP、クリスティアン・コロンドラは述べました。

ローカル大規模言語モデルを使用することで、ユーザーのデータはデバイス上にローカルに保持され、情報をサーバーに送信することなく生成AIを使用できるとオペラは述べた。

人工知能の議論において浮上している問題の一つはデータプライバシーであり、Fetch.ai、SingularityNET (SNET)、およびOcean Protocolの3つの主要な分散型AIプロジェクトが合併して分散型AIエコシステムを構築することを決定しました。

「本日より、Opera One Developerのユーザーは、自分の入力を処理するモデルを選択する機会を得ています。モデルをテストするためには、最新のOpera Developerにアップグレードし、新しい機能を有効にするためのいくつかの手順を踏む必要があります。」 とOperaは述べました。

「ローカルLLMを選択すると、それが彼らの機械にダウンロードされます。ローカルLLMは、通常、バリアントごとに2-10GBのローカルストレージスペースを必要とし、ユーザーがAIとの新しいチャットを開始するか、Ariaを再びオンにするまで、OperaのネイティブブラウザAIであるAriaの代わりに使用されます。」

最新の投稿や更新についてはTwitterをフォローしてください

MAJOR0.82%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)