人工知能 | オペラブラウザが主要なAIモデルをローカルダウンロードおよびオフライン使用のために統合

robot
概要作成中

リーディングブラウザ企業であるOperaは、約50のモデルファミリーから150のローカルLLM (Large Language Model)のバリエーションに対する実験的なサポートを、Opera Oneブラウザの開発者ストリームに追加することを発表しました。

LLMとは、OpenAIによって開発されたGPT (生成事前学習型トランスフォーマーモデル)のようなもので、大量のテキストデータを基に訓練された高度な人工知能システムです。これらは、テキスト生成、翻訳、要約など、さまざまな自然言語処理タスクに使用されます。

オペラによると、これは主要なブラウザから組み込み機能を通じてローカルLLMに簡単にアクセスし、管理できる初めての機会です。ローカルAIモデルは、オペラのオンラインAria AIサービスに対する補完的な追加です。サポートされているローカルLLMには、次のものがあります:

* メタのラマ

  • ヴィクーニャ
  • GoogleのGemma
  • Mistral AIのMixtral

「このようにローカルLLMを導入することで、Operaは急速に進化するローカルAI分野での体験やノウハウを構築する方法を探り始めることができます。」 とOperaのブラウザおよびゲーム担当EVP、クリスティアン・コロンドラは述べました。

ローカル大規模言語モデルを使用することは、ユーザーのデータがデバイス上にローカルに保持され、サーバーに情報を送信する必要なく生成AIを利用できることを意味すると、Operaは述べました。

人工知能の議論において浮上している問題の一つはデータプライバシーであり、これに関して、Fetch.ai、SingularityNET (SNET)、Ocean Protocolの3つの主要な分散型AIプロジェクトが、分散型AIエコシステムを作成するために統合することを決定しました。

「本日現在、Opera One Developerのユーザーは、自分の入力を処理するために使用したいモデルを選択する機会を得ています。モデルをテストするには、最新のOpera Developerにアップグレードし、新機能を有効にするためのいくつかの手順に従う必要があります。」 とOperaは述べました。

"ローカルLLMを選択すると、それがユーザーのマシンにダウンロードされます。ローカルLLMは、通常、バリアントごとに2〜10 GBのローカルストレージスペースを必要とし、ユーザーがAIとの新しいチャットを開始するか、Ariaを再度オンにするまで、OperaのネイティブブラウザAIであるAriaの代わりに使用されます。"

最新の投稿や更新情報はTwitterでフォローしてください

MAJOR-3.62%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)