人工知能 | Operaブラウザが主要なAIモデルを統合し、ローカルダウンロードとオフライン利用を実現

robot
概要作成中

主要なブラウザ企業であるOperaは、開発者向けストリームのOpera Oneブラウザに約50のモデルファミリーから150のローカルLLM (Large Language Model)バリアントの実験的サポートを追加すると発表しました。

GPT (Generative Pre-trained Transformer)モデルなどのLLMは、OpenAIによって開発された高度な人工知能システムで、大量のテキストデータをもとに学習し、人間のようなテキストを理解・生成します。これらは、テキスト生成、翻訳、要約などのさまざまな自然言語処理タスクに使用されます。

Operaによると、これはローカルLLMに簡単にアクセスし、管理できるのは今回が初めてだとのことです。ローカルAIモデルは、OperaのオンラインAria AIサービスに付加される無料の機能です。サポートされているローカルLLMには次のものがあります。

  • MetaのLlama
  • Vicuna
  • GoogleのGemma
  • Mistral AIのMixtral

*「この方法でローカルLLMを導入することで、Operaは急速に進化するローカルAI分野内での体験構築やノウハウの探索を開始できるようになります」*と、Operaのブラウザ・ゲーミング担当エグゼクティブ・バイスプレジデントのKrystian Kolondraは述べています。

Operaは、ローカル大規模言語モデルを使用することで、ユーザーのデータがデバイス内に保持され、情報をサーバーに送信する必要なく生成AIを利用できると述べています。

人工知能の議論の中で浮上している問題の一つはデータプライバシーであり、これに関して、Fetch.ai、SingularityNET (SNET)、Ocean Protocolの3つの主要な分散型AIプロジェクトが、分散型AIエコシステムを構築するために合併を決定しました。

*「現時点で、Opera One開発者ユーザーは、自分の入力を処理するモデルを選択する機会を得ています。モデルをテストするには、最新のOpera Developerにアップグレードし、新機能を有効にするためのいくつかのステップを踏む必要があります」*とOperaは述べています。

「ローカルLLMを選択すると、それがユーザーのマシンにダウンロードされます。通常、各バリアントには2-10 GBのローカルストレージスペースが必要ですが、その後、ユーザーが新しいチャットを開始するか、Ariaを再度有効にしない限り、OperaのネイティブブラウザAIであるAriaの代わりに使用されます」

最新の投稿やアップデートについてはTwitterをフォローしてください

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし